Парсер сайтов и файлов (парсинг данных с сайта в Excel)

Надстройка Parser для MS Excel: общие сведения

Предназначение программы: быстрый сбор любых данных с различных сайтов или файлов, с выводом результата в Excel.

Основные возможности:

  • парсинг интернет-магазинов и любых других сайтов (соцсетей, каталогов, объявлений и т.д.)
  • извлечение данных из файлов формата Word / Excel / txt / PDF
  • скачивание файлов (изображений, документов, и т.п.)
  • обновление цен по ссылкам (мониторинг цен конкурентов / РРЦ)

Особенности программы

Простота использования и настройки

  • Запуск парсера нажатием одной кнопки на ленте Excel
  • Для настройки парсеров не нужно знание программирования!
    Достаточно минимально понимать HTML (что такое теги), и изучить 2 основные команды парсера (загрузка страницы, и поиск тегов). Этого достаточно для 90% задач.
  • Если сами не разберётесь с настройкой — всегда можно заказать нам настройку парсера под вашу задачу.
  • Всё что нужно для работы парсера, это Windows 10 (или новее) и Microsoft Excel (версии 2010 или новее)
    Иногда ещё нужен браузер Google Chrome (для работы с проблемными сайтами)
  • Можно настроить программу под несколько разных сайтов (задач), и легко переключаться между настройками через выпадающий список на панели инструментов программы.

Гибкая постобработка данных

  • Множество текстовых функций для обработки полученной информации
  • Разнообразные фильтры и функции перекодировки
  • Работа с переменными и массивами данных
  • Разбиение значений на отдельные элементы с индивидуальной обработкой
  • Автоматический вывод характеристик товаров в отдельные столбцы
  • Интеллектуальный поиск цен на страницах
  • Поддержка форматов JSON и XML

Продвинутые сетевые возможности

  • Несколько способов загрузки страниц — WinHTTP / WinAPI / WinINET / IE / Google Chrome
  • Авторизация — поддержка входа в аккаунты на различных сайтах
  • Региональные настройки — выбор географического региона для парсинга
  • HTTP-запросы — поддержка GET и POST методов, конструктор запросов
  • Cookies и Headers — полная работа с HTTP-заголовками и куки
  • Многопоточность — до 200 одновременных потоков для ускорения работы
  • Обход защиты — распознавание капчи через сервис RuCaptcha.com, паузы между запросами
  • Браузерная интеграция — работа с защищёнными от роботов сайтами через Google Chrome
  • Кеширование — сохранение данных для повторного использования

Неограниченные возможности поиска и навигации по сайту

  • Рекурсивный поиск страниц на сайтах
  • Поиск данных по HTML-тегам и их атрибутам
  • Автоматическое обнаружение ссылок пагинации (пейджера)
  • Специализированные функции для работы с HTML-таблицами
  • Преобразование HTML в текст и пары "название-значение"
  • Очистка HTML от лишних данных

Интеграция с Excel

  • Чтение данных из файлов Excel для использования в парсинге
  • Создание отдельных листов и файлов
  • Динамическое формирование столбцов для вывода результатов
  • Использование всех встроенных возможностей Excel (условное форматирование, формат ячеек)
  • Удобная панель инструментов для запуска парсинга

Работа с файлами

  • Сбор данных из файлов различных форматов (Word, XML, TXT, Excel, PDF)
  • Обработка файлов из заданных пользователем папок
  • Сохранение изображений и документов под заданными именами в настраиваемые папки

С момента выхода программы в 2014 году, её функционал постоянно развивался (вышли сотни обновлений), поэтому сейчас в парсере есть всё, что только может вам понадобиться для сбора данных из интернета.

Более подробно всё это описано в разделе Справка по программе

Видеоинструкция
YouTube
VK Video
RuTube

На видео рассказывается о работе с программой, и показан процесс настройки парсера интернет-магазина:

Дополнительные видео и подробное описание функционала можно найти в разделе Справка по программе

В программе можно настроить несколько парсеров (обработчиков сайтов).
Любой из парсеров настраивается и работает независимо от других.

Примеры настроенных парсеров (можно скачать, запустить, посмотреть настройки)

Видеоинструкция (2 минуты), как запустить готовый (уже настроенный) парсер

Если вам нужен готовый парсер, но вы не хотите разбираться с настройкой,
— закажите настройку парсера разработчику программы. Стоимость настройки под конкретный сайт - от 2500 рублей.
Настройка под заказ выполняется только при условии приобретения лицензии на надстройку «Парсер» (4000 руб)

Инструкция (с видео) по заказу настройки парсера
По всем вопросам, связанным с заказом, готов проконсультировать вас в Телеграм.

Как скачать и протестировать программу

Комментарии

В Excel, если попробовать ввести штрих-код 03836725 (с одного из сайтов), то ноль пропадает. Если же предварительно установить формат ячейки "текстовый", то штрих-код корректно сохраняется в ячейке. Вопрос: можно ли каким-то образом парсеру задать в настройках автоматически форматировать столбец как "текстовый", в который вывожу штрих-код (чтобы всякий раз вручную не устанавливать заранее формат)?

Игорь, данная функция была бы очень полезна, сделайте ее пожалуйста.

Виталий, пока нет такой возможности, но в планах есть реализовать (по срокам пока ничего не могу сказать)

Здравствуйте.

Настроил в экселе таблицу для мониторинга цен клиентов (слежу за демпингом цен). Сайтов достаточно много и парсер запускает их все по очереди (обработав первый переходит ко второму). Есть ли возможность запуска нескольких потоков (парсеров) одновременно. Например, чтобы не ждать очередь, пока по очереди "пропарсятся" 10 сайтов, а запустить все в 10 потоков?

Не знаю, что вы подразумеваете под словом «автоматически», - но возможно

Автоматически можно настроить сбор данных?

Добрый день, Евгений!

Напишите мне в скайп (мои контакты можно увидеть, если кликнуть по ссылке в заголовке сообщения), я Вам расскажу про это вкратце.

Добрый день!

Хотелось бы простой пример по подключению плагина. 2 месяца прошло с релиза а инструкции нет.

Добрый день, Николай!

Видеоуроков на эту тему нет. Парсер может заносить данные в поля через Internet Explorer (это штатный функционал), при помощи макросов можно отправлять файл по FTP на сервер, так же некоторые варианты можно реализовать при помощи дополнительного плагина, позволяющего управлять мышью и клавиатурой.

Но в целом парсер предназначен в первую очередь для скачивания информации с сайтов, а не для заливки данных на сайт.

Описывайте, что именно нужно сделать, через форму оформления заказа, дадим более четкий ответ.

Игорь, здравствуйте!
Возможно ли с помощью Вашей программы заливать данные с эксель на сайт?
Если да, имеется ли видео урок?
Заливать буду сам так как необходимо на постоянной основе.

Добрый день, Игорь!

Да, для яндекса реально сделать парсер. Капча будет в любом случае, поэтому надо настраивать её решение. И сам сайт часто меняется.

Не все дополнительные параметры нужно передавать, часть можно игнорировать.

В общем, сложная настройка, если хотите самостоятельно делать.

Добрый день.
Подскажите делали ли вы парсер на поисковую выдачу яндекса, реально ли это? Яндекс передает несколько post запросов и не понятно какой из них необходим для работы парсера ( без него естественно капча и бан). Кроме того, вообще непонятные дополнительные параметры в Request URL.

Виталий, для ссылок из столбца, пока нет возможности использовать многопоточную загрузку.
Но появится в новый версиях программы, - есть в планах сделать такое.

Здравствуйте.
Список с ссылками не заполнен последовательно в ячейках, есть разрывы. То есть ссылки (условно 100 шт.) находятся в диапазоне 200 ячеек, есть пустые ячейки между ссылками.
В таком случае возможно реализовать мультипоточную загрузку одним из методов, которые вы описали или нет? Если возможно, подбросьте, пожалуйста, идейку, попробую что-то нагуглить.

Спасибо, помогло

Степанида, решение проблемы описано по этой ссылке:
http://excelvba.ru/articles/c_1251.nls
(надо скачать файл, запустить, перезагрузить комп)


WWWW, да, есть. Парсер это умеет. Можем настроить под заказ.

есть ли что-то что наоборот из эксель копирует данные из ячеек в поля формы на сайте?

Ну могу настроить парсер, т.к. часть данных в нем отображается не корректно, а в виде кракозябр (проблема в кодировке). Например сразу же переводит в кракозябры название парсера, на вкладке "Исходные данные" во всех списках так же Äàòà ïîñëåäíåãî èçìåíåíèÿ вместо понятного текста. Где это можно поправить?

Спасибо!

Если вы уже покупали программу, - напишите мне на почту, попробуем помочь
Под все варианты инструкцию не написать.
Основные моменты по обработке пагинации описаны здесь:
http://excelvba.ru/programmes/Parser/actions/GetPagerLinks

Нет,спасибо. У меня вопрос только по одной функции парсера, т.к. в гайдах не нашел решения. Парсер то для этого сайта я уже написал, только методом приделывания костылей, если будите любезны может просто подскажите более простое решение как парсить такую пагинацию, думаю ни одному мне будет интересно.

Павел, можем настроить под заказ.

А если не помогает метод "загружать все страницы результатов" как на примере этой ссылки https://2gis.ru/saratov/search/Поесть как быть в таком случае?

Ирина, читаем инструкцию по загрузке страниц, обращая внимание на третий параметр действия:
http://excelvba.ru/programmes/Parser/actions/LoadHTML

И получаем на выходе массив из 38 загруженных страниц

Здравствуйте! Подскажите, пожалуйста, в чем может быть загвоздка в работе функции поиска ссылок пейджера? На примере https://ru.puma.com/sportivnye-tovary-dlja-muzhchin.html?p=2 - прогружаю основную страницу каталога, в качестве префикса пейджера указываю ?p=. Ошибку не выдает, но и массив не находит.
Спасибо!

Добрый день, Виталий! Если не связываться с макросом, который предварительно будет считывать все ссылки со столбца, чтобы сформировать массив, то самый простой способ - разместить ссылки в текстовый файл, считывать их, формировать массив, а потом прогружать мультипоточной загрузкой.

Здравствуйте. Подскажите, можно ли настроить мультипоточную загрузку страниц, если исходные данные я прогружаю с листа эксель.
То есть имею 100 строк с уникальными ссылками и в соседнюю ячейку от ссылки вывожу определенную информацию, взятую с сайта.
Парсер прорабатывает каждую ссылку по одной, не знаю, куда следует добавить мультизагрузку, чтобы читались сразу все ссылки и потом массово загружались результаты

Добрый день, Павел! Через точку с запятой. Учтите, что границы интервала тоже включаются. Т.е. если поставить
5;10
то условию будут удовлетворять не только числа между, но и 5, и 10.

Здравствуйте. Как в "Проверка на выполнение условия" установить параметр "между"? пробовал через дифис, не получается

Что-то не так настроили. Можем настроить под заказ.