Парсер сайтов и файлов (парсинг данных с сайта в Excel)

Надстройка Parser для MS Excel: общие сведения

Предназначение программы: быстрый сбор любых данных с различных сайтов или файлов, с выводом результата в Excel.

Основные возможности:

  • парсинг интернет-магазинов и любых других сайтов (соцсетей, каталогов, объявлений и т.д.)
  • извлечение данных из файлов формата Word / Excel / txt / PDF
  • скачивание файлов (изображений, документов, и т.п.)
  • обновление цен по ссылкам (мониторинг цен конкурентов / РРЦ)

Особенности программы

Простота использования и настройки

  • Запуск парсера нажатием одной кнопки на ленте Excel
  • Для настройки парсеров не нужно знание программирования!
    Достаточно минимально понимать HTML (что такое теги), и изучить 2 основные команды парсера (загрузка страницы, и поиск тегов). Этого достаточно для 90% задач.
  • Если сами не разберётесь с настройкой — всегда можно заказать нам настройку парсера под вашу задачу.
  • Всё что нужно для работы парсера, это Windows 10 (или новее) и Microsoft Excel (версии 2010 или новее)
    Иногда ещё нужен браузер Google Chrome (для работы с проблемными сайтами)
  • Можно настроить программу под несколько разных сайтов (задач), и легко переключаться между настройками через выпадающий список на панели инструментов программы.

Гибкая постобработка данных

  • Множество текстовых функций для обработки полученной информации
  • Разнообразные фильтры и функции перекодировки
  • Работа с переменными и массивами данных
  • Разбиение значений на отдельные элементы с индивидуальной обработкой
  • Автоматический вывод характеристик товаров в отдельные столбцы
  • Интеллектуальный поиск цен на страницах
  • Поддержка форматов JSON и XML

Продвинутые сетевые возможности

  • Несколько способов загрузки страниц — WinHTTP / WinAPI / WinINET / IE / Google Chrome
  • Авторизация — поддержка входа в аккаунты на различных сайтах
  • Региональные настройки — выбор географического региона для парсинга
  • HTTP-запросы — поддержка GET и POST методов, конструктор запросов
  • Cookies и Headers — полная работа с HTTP-заголовками и куки
  • Многопоточность — до 200 одновременных потоков для ускорения работы
  • Обход защиты — распознавание капчи через сервис RuCaptcha.com, паузы между запросами
  • Браузерная интеграция — работа с защищёнными от роботов сайтами через Google Chrome
  • Кеширование — сохранение данных для повторного использования

Неограниченные возможности поиска и навигации по сайту

  • Рекурсивный поиск страниц на сайтах
  • Поиск данных по HTML-тегам и их атрибутам
  • Автоматическое обнаружение ссылок пагинации (пейджера)
  • Специализированные функции для работы с HTML-таблицами
  • Преобразование HTML в текст и пары "название-значение"
  • Очистка HTML от лишних данных

Интеграция с Excel

  • Чтение данных из файлов Excel для использования в парсинге
  • Создание отдельных листов и файлов
  • Динамическое формирование столбцов для вывода результатов
  • Использование всех встроенных возможностей Excel (условное форматирование, формат ячеек)
  • Удобная панель инструментов для запуска парсинга

Работа с файлами

  • Сбор данных из файлов различных форматов (Word, XML, TXT, Excel, PDF)
  • Обработка файлов из заданных пользователем папок
  • Сохранение изображений и документов под заданными именами в настраиваемые папки

С момента выхода программы в 2014 году, её функционал постоянно развивался (вышли сотни обновлений), поэтому сейчас в парсере есть всё, что только может вам понадобиться для сбора данных из интернета.

Более подробно всё это описано в разделе Справка по программе

Видеоинструкция
YouTube
VK Video
RuTube

На видео рассказывается о работе с программой, и показан процесс настройки парсера интернет-магазина:

Дополнительные видео и подробное описание функционала можно найти в разделе Справка по программе

В программе можно настроить несколько парсеров (обработчиков сайтов).
Любой из парсеров настраивается и работает независимо от других.

Примеры настроенных парсеров (можно скачать, запустить, посмотреть настройки)

Видеоинструкция (2 минуты), как запустить готовый (уже настроенный) парсер

Если вам нужен готовый парсер, но вы не хотите разбираться с настройкой,
— закажите настройку парсера разработчику программы. Стоимость настройки под конкретный сайт - от 2500 рублей.
Настройка под заказ выполняется только при условии приобретения лицензии на надстройку «Парсер» (4000 руб)

Инструкция (с видео) по заказу настройки парсера
По всем вопросам, связанным с заказом, готов проконсультировать вас в Телеграм.

Как скачать и протестировать программу

Комментарии

Доброго времени суток.
При написании парсера столкнулся с проблемой что сайт через IE не отображает цены.
Готов купить программу, но необходимо быть уверенным что она работает с подобными сайтами

Да, привязка к железу.
При покупке лицензии укажите, что надо 3 активации вместо 2, - за ту же цену (2500) сделаю вам 3 активации.
Вот на всех 3 компах и активируете программу.

Подскажите, при покупке парсера, он привязывается к железу компа?
Или можно по паролю какому то или почте входить и пользоваться?
У меня 3 компа. Один таская с собой, на котором в основном и работаю.
Второй в офисе стоит на котором тоже могу запускать парсер.
Третий дома, иногда и там пользуюсь.
В тестовом периоде было удобно. Но не понятно как буду работать при покупке парсера...

2.1.3 Очень хорошее обновление. Приятно, что программа "обрастает" столь полезным функционалом.

Wordstat - тот редкий случай, где очень сложно получить данные без браузера (там куча скриптов всяких)
Используйте действие «Открыть страницу в Internet Explorer»
Причём, надо предварительно авторизоваться на яндексе в браузере Internet Explorer, - иначе работать не будет.

Спасибо, а где нельзя https://wordstat.yandex.ru/#!/?words=...

В данном случае, надо заменить символы #!/ на пусто (действие «Заменить часть текста»)
чтобы получилась ссылка https://music.yandex.ru/album/10030

Добрый день!
Встречаю символ #! в URL некоторых сайтов http://music.yandex.ru/#!/album/10030

Делаю загрузку исходного кода веб-страницы.
Получаю текущий URL

Получаю http://music.yandex.ru/%23!/album/10030 есть какие-то варианты чтобы парсер обрабатывал #

C гуглом - там непростая авторизация, - надо разбираться, как работает
За 5-10 минут там не сделать. Так что инструкцию делать вряд ли буду

На 99% сайтов, авторизация выполняется ОДНИМ действием «Авторизация на сайте (POST запрос)»
А с популярными порталами, типа Google, настройка будет заметно сложнее
Если готовы оплатить, - можем настроить под заказ.

PS: Самый простой вариант в таких случаях, - авторизоваться вручную (в браузере Intertnet Explorer),
и в парсере использовать действие «Открыть страницу в Intertnet Explorer»
(и никаких проблем с авторизацией не будет, - вы там изначально авторизованы будете)

Добрый день!
Можете сделать инструкцию по авторизации на Google по аналогии с Яндексом http://excelvba.ru/programmes/Parser/manuals/Authentication

А что конкретно вам подсказать?
Тут не подсказывать надо, а настраивать...

Добрый день!
Подскажите. Никак не получается авторизоваться на гугл почте.

Станислав, какое обновление ищете?
Просто скачайте последнюю версию программы (ссылка на скачивание - над заголовком статьи)

Добрый день. НЕ могу найти на сайте обновление программы парсинга. Подскажите, как это сделать?

Должно скачиваться без проблем.
Если у вас антивирус Аваст, - отключите его (он может блокировать скачивание)

Здравствуйте! Не получается скачать пробную версию ни одним браузером и ни одним загрузчиком, зависает загрузка.

Спасибо все работает.

Действие «Вывод значения в заданную ячейку» вообще не надо использовать, - оно применяется в 1 случае из 1000
(сомневаюсь, что вам нужна такая навороченная надстройка, как «парсер», чтобы вывести одно значение в одну ячейку...)

Чтобы вывести формулу, - она должна быть в английском варианте
Например, вместо вашей формулы =ОКРУГЛ(RC[-1]/RC[-2];2) надо написать =ROUND(RC[-1]/RC[-2],2)
— тогда будет работать.
Обратите внимание, что меняется не только ОКРУГЛ на ROUND, но и точка с запятой меняется на запятую.
Формула суммы будет выглядеть так: =SUM(RC[-1]/RC[-2])

Добрый вечер!
Пытаюсь получить результат от 2-х действий
1.Задать новое значение
2.Вывод значения в заданную ячейку

Формула =ОКРУГЛ(RC[-1]/RC[-2];2) вывод в ячейку С2 в данном случай в ячейку ничего не выводиться.
При такой формуле =СУММ(RC[-1]/RC[-2]) выводит #ИМЯ? лечиться через CTRL+H найти и заменить = на =
При формуле =RC[-1]/RC[-2] все отображается верно.

Соответственно интересен результат с округлением. Win7 64 office2010 64

Да, можно и такой сайт отпарсить (там JS либо отдельные запросы формирует, либо все данные уже есть в коде страницы, - и скрипт их оттуда берёт)
Чуть сложнее в настройке (надо смотреть, какие запросы отправляются браузером) — но ничего невозможного нет.
Можем настроить под заказ.

Добрый день. Скажите можно ли как-нибудь отпарсить сайт, если поисковая выдача формируется с помощью JS? Интересует именно поисковая выдача на сайте т.к. сами карточки товара отпарсить можно, но вот как на них попасть?
Конкретнее, при загрузки Исходного кода страницы программой грузит - })(window,document,'script','dataLayer','GTM-KCBW6D');(function(){"use strict";function e(){}function t(e,t){for(var n=e.length;n--;)if(e[n].listener===t)return n;return-1}function n(e){return function(){return this[e].apply(this,arguments)}}var r=e.prototype,i=this.

Теоретически, можете от любого сайта бан получить
Но, на практике, это крайне маловероятно, - для 99,9% сайтов сайтов бана не будет, т.к. администраторы сайтов не занимаются отслеживанием количества запросов, и на большинстве сайтов нет специальных решений, отслеживающих количество запросов с одного адреса и блокирующих IP осле какого-то количества запросов.

Проблема бана присутствует с очень популярными сайтами, где миллионы посетителей в сутки.
Если же парсить обычные сайты, - вряд ли вы столкнётесь с такой проблемой.

PS: в программе пока нет возможности работать через прокси или VPN

Здравствуйте. Могу ли я получить бан от сайта, пользуясь парсером. Есть ли какие - то средства обхода типа прокси или vpn?

В заголовке статьи есть ссылка на скачивание надстройки.
Ссылка ненадолго пропадала, - исправил ошибку на сайте.

Здравствуйте.

А где можно скачать тестовый парсер сайтов?

Здравствуйте, Ангелина.
Да, реально.
Если вы вручную ссылки проставите для всех товаров и всех сайтов, - то качество будет 100%, и по цене будет 2500 руб + 10 сайтов*400 руб = 6500 руб
http://excelvba.ru/programmes/Parser/manuals/ComparePrices

Если вы хотите, чтобы парсер сам искал товары на сайтах по артикулу, - качество результата будет заметно хуже (мало ли что там найдётся, или вообще не найдётся, - т.е. никаких гарантий), и по цене будет по 800 руб за сайт: 2500 руб + 10 сайтов*800 руб = 10500 руб
Если хотите, чтобы парсер сам искал по артикулу, - возьмите выборочно несколько артикулов из своей таблицы, и вбейте в поиск по всем этим 10 сайтам.
Если везде первый результат поиска будет тем самым нужным товаром, - то сделать можно.

Добрый день. А сколько будет стоить такая задача: нужно мониторить парсером цены на 10 сайтах (на каждом по 2500 артикулов)? И реально ли её сделать вашим парсером, если у меня есть только артикулы?

Если готовы оплатить программу-парсер (2500 руб) - звоните в скайп, придумаем как настроить
(либо отдельный макрос напишу, либо доработаю макрос переименования файлов)
Ник в скайпе: ExcelVBA.ru

Я попробовал макрос поиска файлов. Он не совсем подходит т.к. у меня есть не полные имена файлов, а частичные. А для для корректной работы данного макроса необходимо знать полные имена файлов. Макрос парсер данную задачу делает лучше, он находит файлы по части имени, но вот к сожалению не умеет их скачивать.

Задача следующая, найти файлы по списку и скопировать их в другое место. Ваш парсер успешно находит необходимые мне файлы. Какую ему прописать команду, чтобы он произвел закачку этих файлов (скопировал из одной папки в другую.)