Парсер сайтов и файлов (парсинг данных с сайта в Excel)

Надстройка Parser для MS Excel: общие сведения

Предназначение программы: быстрый сбор любых данных с различных сайтов или файлов, с выводом результата в Excel.

Основные возможности:

  • парсинг интернет-магазинов и любых других сайтов (соцсетей, каталогов, объявлений и т.д.)
  • извлечение данных из файлов формата Word / Excel / txt / PDF
  • скачивание файлов (изображений, документов, и т.п.)
  • обновление цен по ссылкам (мониторинг цен конкурентов / РРЦ)

Особенности программы

Простота использования и настройки

  • Запуск парсера нажатием одной кнопки на ленте Excel
  • Для настройки парсеров не нужно знание программирования!
    Достаточно минимально понимать HTML (что такое теги), и изучить 2 основные команды парсера (загрузка страницы, и поиск тегов). Этого достаточно для 90% задач.
  • Если сами не разберётесь с настройкой — всегда можно заказать нам настройку парсера под вашу задачу.
  • Всё что нужно для работы парсера, это Windows 10 (или новее) и Microsoft Excel (версии 2010 или новее)
    Иногда ещё нужен браузер Google Chrome (для работы с проблемными сайтами)
  • Можно настроить программу под несколько разных сайтов (задач), и легко переключаться между настройками через выпадающий список на панели инструментов программы.

Гибкая постобработка данных

  • Множество текстовых функций для обработки полученной информации
  • Разнообразные фильтры и функции перекодировки
  • Работа с переменными и массивами данных
  • Разбиение значений на отдельные элементы с индивидуальной обработкой
  • Автоматический вывод характеристик товаров в отдельные столбцы
  • Интеллектуальный поиск цен на страницах
  • Поддержка форматов JSON и XML

Продвинутые сетевые возможности

  • Несколько способов загрузки страниц — WinHTTP / WinAPI / WinINET / IE / Google Chrome
  • Авторизация — поддержка входа в аккаунты на различных сайтах
  • Региональные настройки — выбор географического региона для парсинга
  • HTTP-запросы — поддержка GET и POST методов, конструктор запросов
  • Cookies и Headers — полная работа с HTTP-заголовками и куки
  • Многопоточность — до 200 одновременных потоков для ускорения работы
  • Обход защиты — распознавание капчи через сервис RuCaptcha.com, паузы между запросами
  • Браузерная интеграция — работа с защищёнными от роботов сайтами через Google Chrome
  • Кеширование — сохранение данных для повторного использования

Неограниченные возможности поиска и навигации по сайту

  • Рекурсивный поиск страниц на сайтах
  • Поиск данных по HTML-тегам и их атрибутам
  • Автоматическое обнаружение ссылок пагинации (пейджера)
  • Специализированные функции для работы с HTML-таблицами
  • Преобразование HTML в текст и пары "название-значение"
  • Очистка HTML от лишних данных

Интеграция с Excel

  • Чтение данных из файлов Excel для использования в парсинге
  • Создание отдельных листов и файлов
  • Динамическое формирование столбцов для вывода результатов
  • Использование всех встроенных возможностей Excel (условное форматирование, формат ячеек)
  • Удобная панель инструментов для запуска парсинга

Работа с файлами

  • Сбор данных из файлов различных форматов (Word, XML, TXT, Excel, PDF)
  • Обработка файлов из заданных пользователем папок
  • Сохранение изображений и документов под заданными именами в настраиваемые папки

С момента выхода программы в 2014 году, её функционал постоянно развивался (вышли сотни обновлений), поэтому сейчас в парсере есть всё, что только может вам понадобиться для сбора данных из интернета.

Более подробно всё это описано в разделе Справка по программе

Видеоинструкция
YouTube
VK Video
RuTube

На видео рассказывается о работе с программой, и показан процесс настройки парсера интернет-магазина:

Дополнительные видео и подробное описание функционала можно найти в разделе Справка по программе

В программе можно настроить несколько парсеров (обработчиков сайтов).
Любой из парсеров настраивается и работает независимо от других.

Примеры настроенных парсеров (можно скачать, запустить, посмотреть настройки)

Видеоинструкция (2 минуты), как запустить готовый (уже настроенный) парсер

Если вам нужен готовый парсер, но вы не хотите разбираться с настройкой,
— закажите настройку парсера разработчику программы. Стоимость настройки под конкретный сайт - от 2500 рублей.
Настройка под заказ выполняется только при условии приобретения лицензии на надстройку «Парсер» (4000 руб)

Инструкция (с видео) по заказу настройки парсера
По всем вопросам, связанным с заказом, готов проконсультировать вас в Телеграм.

Как скачать и протестировать программу

Комментарии

При парсинге сайта, программа останавливается на 47% и все. Несколько раз пробовал, но все время тормозит, что делать?

Дмитрий, настроено значит что-то не так.
Можем перенастроить под заказ.

Добрый день. Парсер запускается в работу, загружает данные с 4х страниц, а потом выдает ошибку "Не задан URL страницы для загрузки в действии «Загрузить исходный код веб-страницы»". Скриншот http://prntscr.com/pbxcty. Подскажите в чем может быть проблема?

Сергей, Цены и прочие данные по каждому размеру на сайте Аскона получаются пост-запросами.
Сначала получаем все возможные размеры (в коде страницы ищем select id="product-buy__drop-size", из него берем теги option),
а потом для каждого размера выполняем POST запрос (там около 18 параметров в нём, но меняются только три: размер, ID товара, и еще что-то)
Повозиться немного придется с настройкой, но ничего сложного нет.

Нет, цен в конце страницы нет. Я нашел в видео инструкцию по GET запросам и вроде как разобрался, спасибо! Но через браузер. Попробую следующим этапом перейти на метод загрузки кода.

Здравствуйте, Сергей
Браузер парсеру для этой задачи не нужен.
В большинстве случаев, даже щёлкать ничего не надо, - в коде страницы обычно есть все размеры и цены на них.
Если же нет, то смотрите какой запрос выполняет ваш браузер.
Подробнее об этом во второй видеоинструкции:
https://excelvba.ru/programmes/Parser/manuals/Loading_Pages_and_Logon

Добрый день! Пытаюсь настроить парсинг позиций на этом сайте:
https://www.askona.ru/tekstil/postelnoe-beljo/askona-home-belyy-sneg-pro...
Для получения цены нужно из дропдауна выбрать нужный размер, то есть попросить парсер сделать два клика: на дропдауне и на нужном элементе, и тогда меняется цена. Не могу этого добиться :( "Щелкнуть по элементу в Internet Explorer" не срабатывает так, как я этого хотел бы. Подозреваю, что это настраивается где-то через GET/POST. Использую платную версию программы.

Хочу настроить сам, опыт важен. Скажите, в какую сторону курить? Может, есть образец или запись семинара, где это было бы освещено?

Ярослав, с этими Гугл сервисами, - да, непросто.
Парсер можно попробовать настроить под них (без использования ИЕ), но наверняка там повозиться придется с настройкой (ибо всё на скриптах).
На данный момент, 99.99999% сайтов парсеру вполне доступны, так что какого-то специализированного решения под подобные гугл-сервисы пока не планируется.

Я вообще обычно не настраиваю парсер под Google и Яндекс, — с ними много сложностей (типа капчи и прочих мешающих парсингу вещей), да и для подобных сервисов обычно существуют специализированные решения / парсеры, заточенные под парсинг выдачи поисковых систем.
Мой же парсер — для всех остальных сайтов, кроме этих двух.

IE тихонько умирает. Сервисы типа Гугл тренды или Гугл реклама уже перестали грузиться в IE.
Силами парсера они также не грузятся. Что делать ?

Так просто получите все теги tr из нужной таблицы, а потом проверкой на выполнение условия откиньте лишние

Добрый день. Нужно спарсить данные из HTML-таблицы, в которой теги имеют повторяющиеся аттрибуты tr class=odd, class=even. Уникальны только текстовые значения заголовка строки (типа Сокращенное наименование) и само наименование. Трюк с указанием номера выводимого тега не проходит - значения в таблице на разных страницах плавают.
Можно ли найти тег tr, внутри которого содержится нужный мне текст?

Игорь, из вашего описания не понятно, что нужно сделать, потому, подсказать не могу

Здравствуйте. Подскажите,где можно подробнее почитать про парсинг по рефферальным ссылкам?
Например есть ссылки в выгруженном csv формате. На настроить парсер?
Спасибо

Эльдар, да, можно сделать.
Как именно, зависит от сайта. Можем настроить под заказ.

Добрый день. Такой вопрос есть. Если на сайте есть кнопка скачать и по этой кнопке скачивается архив, есть какое-то действие на такое скачивание?

Эльдар, там надо смотреть, какие запросы выполняет браузер при прокрутке, и выполнять аналогичные.
Просто посложнее будет настройка в таком случае, - вместо одного действия (получить все ссылки пейджера) будет 4-5 действий.
ИЕ использовать для этого необязательно.
Можем настроить под заказ.

Добрый день. Очень крутая штука. Спасибо.
Есть один вопрос. Сайт использует динамическую подгрузку контента. Пагинация при скроле. И там довольно таки много контента. порядка 500-700 позиций. Пробовал использовать функцию открыть в IE и сделать прокрутку, но этот инструмент работает не стабильно и каждый раз производит прокрутку на разное количество позиций. Как с этим быть?

Ирина, не могу сказать. Вроде никто на такое не жаловался, всё должно работать.
Если купите программу, — напишете мне потом в скайп, попробую помочь

Игорь, добрый день! В парсере (Дополнительно-Таблицы замен) при нажатии кнопки "Редактировать" таблицу замены выходит ошибка "Обратитесь к разработчику программы. Не удалось создать редактор таблиц замены". Подскажите, пожалуйста, в чем проблема? Спасибо!

Использование браузера вообще не обязательно (да и нежелательно)
Всё, что вы видите в Хроме, можно получить парсером без браузера (например, выполняя пост запросы, как это делает браузер)
Так что сделаем, не проблема.

Ваш парсер сайтов работает только в браузере (IE)? Мне необходимо сделать парсинг сайта, у которого не все объекты доступны через IE. В хроме сайт работает нормально. Вы решаете парсинг таких сайтов?

От сайта зависит. Где-то можно найти номер в коде страницы (возможно, дешифровать номер нужно будет), где-то надо выполнить POST запрос.
Можем настроить под заказ.

Игорь, с этим разобрался. Последний вопрос, как спарсить номер телефона, который скрыт под кнопкой. Допустим номер телефона не отображается в коде сайта, пока не нажать на эту кнопку. Если это есть в документации, дайте намек где искать. Спасибо

Дмитрий, в справке по этому действию написано, что можно извлечь любой атрибут, прописав его название в четвертом параметре действия Поиск тегов

Добрый день, как извлекать значение атрибута? Есть в теге a, атрибут со значением номера телефона data-content="+79999999999", как извлечь сам номер?

С любым сайтом будет работать.
Нет разницы, интернет-магазин это, или любой другой сайт.

Здравствуйте!
Подскажите, пожалуйста, а с такого сайта будет работать ваш парсер:https://holstshop.ru/catalog/painters/klod-zhozef-verne/?
Это не совсем интернет-магазин, нужна большая фотография, название, описание внизу с артикулом. Парсить хотел по художникам.

Друзья, просмотрев видео все получилось с помощью пост-запросов, спасибо.

Ребята здравствуйте, скажите пожалуйста, есть ли пример настроенных парсеров, как получить данные с выполнения скрипта, а то без примера ну ни как.

Либо пост-запросом, либо открывая страницу в браузере IE
Подробнее - в видеоинструкции: https://excelvba.ru/programmes/Parser/manuals/Loading_Pages_and_Logon