Парсер сайтов и файлов (парсинг данных с сайта в Excel)

Структура программы «Парсер сайтов»

Надстройка Parser для Excel — простое и удобное решение для парсинга любых сайтов (интернет-магазинов, соцсетей, площадок объявлений) с выводом данных в таблицу Excel (формата XLS* или CSV), а также скачивания файлов.

Особенность программы — очень гибкая настройка постобработки полученных данных (множество текстовых функций, всевозможные фильтры, перекодировки, работа с переменными, разбиение значения на массив и обработка каждого элемента в отдельности, вывод характеристик в отдельные столбцы, автоматический поиск цены товара на странице, поддержка форматов JSON и XML).

 

В парсере сайтов поддерживается авторизация на сайтах, выбор региона, GET и POST запросы, приём и отправка Cookies и заголовков запроса, получение исходных данных для парсинга с листа Excel, многопоточность (до 200 потоков), распознавание капчи через сервис RuCaptcha.com, работа через браузер (IE), кеширование, рекурсивный поиск страниц на сайте, сохранение загруженных изображений товара под заданными именами в одну или несколько папок, и многое другое.

Поиск нужных данных на страницах сайта выполняется в парсере путем поиска тегов и/или атрибутов тегов (по любому свойству и его значению). Специализированные функции для работы с HTML позволяют разными способами преобразовывать HTML-таблицы в текст (или пары вида название-значение), автоматически находить ссылки пейджера, чистить HTML от лишних данных.

За счёт тесной интеграции с Excel, надстройка Parser может считывать любые данные из файлов Excel, создавать отдельные листы и файлы, динамически формировать столбцы для вывода, а также использовать всю мощь встроенных в Excel возможностей.
Поддерживается также сбор данных из текстовых файлов (формата Word, XML, TXT) из заданной пользователем папки, а также преобразование файлов Excel из одного формата таблицы в другой (обработка и разбиение данных на отдельные столбцы)

В программе «Парсер сайтов» можно настроить обработку нескольких сайтов. Перед запуском парсинга (кнопкой на панели инструментов Excel) можно выбрать ранее настроенный сайт из выпадающего списка.

Пример использования парсера для мониторинга цен конкурентов

 

Видеоинструкция

На видео рассказывается о работе с программой, и показан процесс настройки парсера интернет-магазина:

 

Дополнительные видеоинструкции, а также подробное описание функционала, можно найти в разделе Справка по программе

 

В программе можно настроить несколько парсеров (обработчиков сайтов).
Любой из парсеров настраивается и работает независимо от других.

Примеры настроенных парсеров (можно скачать, запустить, посмотреть настройки)

Видеоинструкция (2 минуты), как запустить готовый (уже настроенный) парсер

 

Настройка программы, - дело не самое простое (для этого, надо хоть немного разбираться в HTML)

Если вам нужен готовый парсер, но вы не хотите разбираться с настройкой,
— закажите настройку парсера разработчику программы. Стоимость настройки под конкретный сайт - от 2500 рублей.
(настройка под заказ выполняется только при условии приобретения лицензии на надстройку «Парсер» (4000 руб)

Инструкция (с видео) по заказу настройки парсера
По всем вопросам, готов проконсультировать вас в Скайпе.

 

Программа не привязана к конкретному файлу Excel.
Вы в настройках задаёте столбец с исходными данными (ссылками или артикулами),
настраиваете формирование ссылок и подстановку данных с сайта в нужные столбцы,
нажимаете кнопку, - и ваша таблица заполняется данными с сайта.

Программа «Парсер сайтов» может  быть полезна для формирования каталога товаров интернет-магазинов,
поиска и загрузки фотографий товара по артикулам (если для получения ссылки на фото, необходимо анализировать страницу товара),
загрузки актуальных данных (цен и наличия) с сайтов поставщиков, и т.д. и т.п.

 

Справка по программе «Парсер сайтов»

Можно попробовать разобраться с работой программы на примерах настроенных парсеров

Как скачать и протестировать программу

Комментарии

Очень нравится ваша программа, но из-за собственных слабых познаний затрудняюсь в использование. Покажите пожалуйста, как перейти по вкладкам на сайте, если они исполнены как "< l i data-block="summary" data - ajax="summary/"> Результаты

". Или как добавить к ссылке полученной через "Преобразование в гиперссылку" текст, чтобы исходных код страницы брался с "гиперсылка"+"то что я добавил". Спасибо)

Здравствуйте, Дмитрий
Напишите мне в скайп, решим проблему.

Добрый день!

В последнее время на одном из компьютеров стало очень долго открываться окно настроек Парсера. Также очень много времени требуется для сохранения даже самых незначительных изменений. Также сам процесс парсинга данных занимает в разы больше времени, чем это было до возникновения данной проблемы. На другой машине таких проблем не возникает.

Прошу подсказать, с чем могут быть связаны такие подтормаживания надстройки? Сам Excel, ровно как и Windows, не тормозят ни капли. Машина мощная. Судя по графикам, процессор грузится в моменты открытия и внесения изменений в настройки приблизительно на 30%.

Очень надеюсь на Ваш совет, т.к. подобное поведение надстройки вызывает существенные трудности при её эксплуатации.

Теоретически возможно, конечно, но я версию под Mac делать не буду.
Мои программы работают только под Windows

Здравствуйте. А можно ли сделать такой парсер для MS EXEl под mac и если да, сколько это будет стоить?

Если сделаете пример результата в Экселе, то можно

Добрый день! Есть ли возможность парсинга части таблицы из word в excel с сохранением разметки?

В действии «Поиск тегов» первым параметром указываете div, а четвертым data-brand

Здравствуйте, как из такого div взять data-brand?
div class="col-sm-3 col-xs-6 brand" style="text-align: center; padding-bottom: 15px;" data-brand="110"

Если это ваш сайт, то вы и без парсера можете выгрузить эти данные из админки.
Если это не ваш сайт, то эти данные получить невозможно.

Привет. Нужны дааные которые пользователи вводят при регистрации на сайте в специальной форме, это можно сделать с помощью вашей программы или надо заказывать настройку такого парсинга отдельно?

Антон, парсер может обработать и такие ссылки, просто настройка немного другая
(так как в парсере не работает javascript, надо смотреть, какие запросы выполняет браузер, и делать аналогично)
Можем настроить под заказ.

Приветствую. На многих сайтах ссылки (особенно паджинатора) прописаны яваскриптом. Имею в виду конструкции вида | href="#" onClick="getURL(/cat/tov.html);" | Пробовал разные настройки, парсер их не видит. Я что-то упускаю или парсер рассчитан исключительно на plain html?

Сделать можем, если вы вышлете задание (с какого сайта и откуда конкретно эти данные брать)

Друзья, часто нужны контакты (телефоны) ИП из разных регионов РФ.
Есть ли у кого-то готовый парсер на такой случай или может ли кто-то сделать его за гонорар?

Можем настроить под заказ.
Заказы на парсер принимаются в таком виде
https://excelvba.ru/programmes/Parser/order

Добрый день,я просто пока не могу понять, что для этого нужно выбрать, как сделать значение в отдельном столбце понятно, но тогда будет сильно растянутая таблица, а вот что каждое значение в отдельной строке (как новое) не понятно(((((

Татьяна, да, конечно можно.

Добрый день, подскажите можно ли в отдельные строки выводить товаров с таблицы товара (одно наименование, разные характеристики-модели). Вот страница для примера https://www.sss.by/prod/mebel-dlya-vannoi-komnaty/umby-pod-umyvalnik/umb...

В действии «Получить все ссылки пейджера» в параметре «Дополнительные параметры» напишите step=1

пейджер отображает только четные страницы http://opt.ros-decor.ru/category/photoshtori/tsvety/
не могу разобраться, помогите

Игорь, какая примерно цена по настройке парсера?

При парсинге сайта, программа останавливается на 47% и все. Несколько раз пробовал, но все время тормозит, что делать?

Дмитрий, настроено значит что-то не так.
Можем перенастроить под заказ.

Добрый день. Парсер запускается в работу, загружает данные с 4х страниц, а потом выдает ошибку "Не задан URL страницы для загрузки в действии «Загрузить исходный код веб-страницы»". Скриншот http://prntscr.com/pbxcty. Подскажите в чем может быть проблема?

Сергей, Цены и прочие данные по каждому размеру на сайте Аскона получаются пост-запросами.
Сначала получаем все возможные размеры (в коде страницы ищем select id="product-buy__drop-size", из него берем теги option),
а потом для каждого размера выполняем POST запрос (там около 18 параметров в нём, но меняются только три: размер, ID товара, и еще что-то)
Повозиться немного придется с настройкой, но ничего сложного нет.

Нет, цен в конце страницы нет. Я нашел в видео инструкцию по GET запросам и вроде как разобрался, спасибо! Но через браузер. Попробую следующим этапом перейти на метод загрузки кода.

Здравствуйте, Сергей
Браузер парсеру для этой задачи не нужен.
В большинстве случаев, даже щёлкать ничего не надо, - в коде страницы обычно есть все размеры и цены на них.
Если же нет, то смотрите какой запрос выполняет ваш браузер.
Подробнее об этом во второй видеоинструкции:
https://excelvba.ru/programmes/Parser/manuals/Loading_Pages_and_Logon

Добрый день! Пытаюсь настроить парсинг позиций на этом сайте:
https://www.askona.ru/tekstil/postelnoe-beljo/askona-home-belyy-sneg-pro...
Для получения цены нужно из дропдауна выбрать нужный размер, то есть попросить парсер сделать два клика: на дропдауне и на нужном элементе, и тогда меняется цена. Не могу этого добиться :( "Щелкнуть по элементу в Internet Explorer" не срабатывает так, как я этого хотел бы. Подозреваю, что это настраивается где-то через GET/POST. Использую платную версию программы.

Хочу настроить сам, опыт важен. Скажите, в какую сторону курить? Может, есть образец или запись семинара, где это было бы освещено?

Ярослав, с этими Гугл сервисами, - да, непросто.
Парсер можно попробовать настроить под них (без использования ИЕ), но наверняка там повозиться придется с настройкой (ибо всё на скриптах).
На данный момент, 99.99999% сайтов парсеру вполне доступны, так что какого-то специализированного решения под подобные гугл-сервисы пока не планируется.

Я вообще обычно не настраиваю парсер под Google и Яндекс, — с ними много сложностей (типа капчи и прочих мешающих парсингу вещей), да и для подобных сервисов обычно существуют специализированные решения / парсеры, заточенные под парсинг выдачи поисковых систем.
Мой же парсер — для всех остальных сайтов, кроме этих двух.