Надстройка Parser для Excel — простое и удобное решение для парсинга любых сайтов (интернет-магазинов, соцсетей, площадок объявлений) с выводом данных в таблицу Excel (формата XLS* или CSV), а также скачивания файлов.
Особенность программы — очень гибкая настройка постобработки полученных данных (множество текстовых функций, всевозможные фильтры, перекодировки, работа с переменными, разбиение значения на массив и обработка каждого элемента в отдельности, вывод характеристик в отдельные столбцы, автоматический поиск цены товара на странице, поддержка форматов JSON и XML).
В парсере сайтов поддерживается авторизация на сайтах, выбор региона, GET и POST запросы, приём и отправка Cookies и заголовков запроса, получение исходных данных для парсинга с листа Excel, многопоточность (до 200 потоков), распознавание капчи через сервис RuCaptcha.com, работа через браузер (IE), кеширование, рекурсивный поиск страниц на сайте, сохранение загруженных изображений товара под заданными именами в одну или несколько папок, и многое другое.
Поиск нужных данных на страницах сайта выполняется в парсере путем поиска тегов и/или атрибутов тегов (по любому свойству и его значению). Специализированные функции для работы с HTML позволяют разными способами преобразовывать HTML-таблицы в текст (или пары вида название-значение), автоматически находить ссылки пейджера, чистить HTML от лишних данных.
За счёт тесной интеграции с Excel, надстройка Parser может считывать любые данные из файлов Excel, создавать отдельные листы и файлы, динамически формировать столбцы для вывода, а также использовать всю мощь встроенных в Excel возможностей.
Поддерживается также сбор данных из текстовых файлов (формата Word, XML, TXT) из заданной пользователем папки, а также преобразование файлов Excel из одного формата таблицы в другой (обработка и разбиение данных на отдельные столбцы)
В программе «Парсер сайтов» можно настроить обработку нескольких сайтов. Перед запуском парсинга (кнопкой на панели инструментов Excel) можно выбрать ранее настроенный сайт из выпадающего списка.
Пример использования парсера для мониторинга цен конкурентов
Дополнительные видеоинструкции, а также подробное описание функционала, можно найти в разделе Справка по программе
В программе можно настроить несколько парсеров (обработчиков сайтов).
Любой из парсеров настраивается и работает независимо от других.
Примеры настроенных парсеров (можно скачать, запустить, посмотреть настройки)
Видеоинструкция (2 минуты), как запустить готовый (уже настроенный) парсер
Настройка программы, - дело не самое простое (для этого, надо хоть немного разбираться в HTML)
Если вам нужен готовый парсер, но вы не хотите разбираться с настройкой,
— закажите настройку парсера разработчику программы. Стоимость настройки под конкретный сайт - от 2500 рублей.
(настройка под заказ выполняется только при условии приобретения лицензии на надстройку «Парсер» (4000 руб)
Инструкция (с видео) по заказу настройки парсера
По всем вопросам, готов проконсультировать вас в Скайпе.
Программа не привязана к конкретному файлу Excel.
Вы в настройках задаёте столбец с исходными данными (ссылками или артикулами),
настраиваете формирование ссылок и подстановку данных с сайта в нужные столбцы,
нажимаете кнопку, - и ваша таблица заполняется данными с сайта.
Программа «Парсер сайтов» может быть полезна для формирования каталога товаров интернет-магазинов,
поиска и загрузки фотографий товара по артикулам (если для получения ссылки на фото, необходимо анализировать страницу товара),
загрузки актуальных данных (цен и наличия) с сайтов поставщиков, и т.д. и т.п.
Справка по программе «Парсер сайтов»
Можно попробовать разобраться с работой программы на примерах настроенных парсеров
Комментарии
Добрый день, Евгений!
Напишите мне в скайп (мои контакты можно увидеть, если кликнуть по ссылке в заголовке сообщения), я Вам расскажу про это вкратце.
Добрый день!
Хотелось бы простой пример по подключению плагина. 2 месяца прошло с релиза а инструкции нет.
Добрый день, Николай!
Видеоуроков на эту тему нет. Парсер может заносить данные в поля через Internet Explorer (это штатный функционал), при помощи макросов можно отправлять файл по FTP на сервер, так же некоторые варианты можно реализовать при помощи дополнительного плагина, позволяющего управлять мышью и клавиатурой.
Но в целом парсер предназначен в первую очередь для скачивания информации с сайтов, а не для заливки данных на сайт.
Описывайте, что именно нужно сделать, через форму оформления заказа, дадим более четкий ответ.
Игорь, здравствуйте!
Возможно ли с помощью Вашей программы заливать данные с эксель на сайт?
Если да, имеется ли видео урок?
Заливать буду сам так как необходимо на постоянной основе.
Добрый день, Игорь!
Да, для яндекса реально сделать парсер. Капча будет в любом случае, поэтому надо настраивать её решение. И сам сайт часто меняется.
Не все дополнительные параметры нужно передавать, часть можно игнорировать.
В общем, сложная настройка, если хотите самостоятельно делать.
Добрый день.
Подскажите делали ли вы парсер на поисковую выдачу яндекса, реально ли это? Яндекс передает несколько post запросов и не понятно какой из них необходим для работы парсера ( без него естественно капча и бан). Кроме того, вообще непонятные дополнительные параметры в Request URL.
Виталий, для ссылок из столбца, пока нет возможности использовать многопоточную загрузку.
Но появится в новый версиях программы, - есть в планах сделать такое.
Здравствуйте.
Список с ссылками не заполнен последовательно в ячейках, есть разрывы. То есть ссылки (условно 100 шт.) находятся в диапазоне 200 ячеек, есть пустые ячейки между ссылками.
В таком случае возможно реализовать мультипоточную загрузку одним из методов, которые вы описали или нет? Если возможно, подбросьте, пожалуйста, идейку, попробую что-то нагуглить.
Спасибо, помогло
Степанида, решение проблемы описано по этой ссылке:
http://excelvba.ru/articles/c_1251.nls
(надо скачать файл, запустить, перезагрузить комп)
WWWW, да, есть. Парсер это умеет. Можем настроить под заказ.
есть ли что-то что наоборот из эксель копирует данные из ячеек в поля формы на сайте?
Ну могу настроить парсер, т.к. часть данных в нем отображается не корректно, а в виде кракозябр (проблема в кодировке). Например сразу же переводит в кракозябры название парсера, на вкладке "Исходные данные" во всех списках так же Äàòà ïîñëåäíåãî èçìåíåíèÿ вместо понятного текста. Где это можно поправить?
Спасибо!
Если вы уже покупали программу, - напишите мне на почту, попробуем помочь
Под все варианты инструкцию не написать.
Основные моменты по обработке пагинации описаны здесь:
http://excelvba.ru/programmes/Parser/actions/GetPagerLinks
Нет,спасибо. У меня вопрос только по одной функции парсера, т.к. в гайдах не нашел решения. Парсер то для этого сайта я уже написал, только методом приделывания костылей, если будите любезны может просто подскажите более простое решение как парсить такую пагинацию, думаю ни одному мне будет интересно.
Павел, можем настроить под заказ.
А если не помогает метод "загружать все страницы результатов" как на примере этой ссылки https://2gis.ru/saratov/search/Поесть как быть в таком случае?
Ирина, читаем инструкцию по загрузке страниц, обращая внимание на третий параметр действия:
http://excelvba.ru/programmes/Parser/actions/LoadHTML
И получаем на выходе массив из 38 загруженных страниц
Здравствуйте! Подскажите, пожалуйста, в чем может быть загвоздка в работе функции поиска ссылок пейджера? На примере https://ru.puma.com/sportivnye-tovary-dlja-muzhchin.html?p=2 - прогружаю основную страницу каталога, в качестве префикса пейджера указываю ?p=. Ошибку не выдает, но и массив не находит.
Спасибо!
Добрый день, Виталий! Если не связываться с макросом, который предварительно будет считывать все ссылки со столбца, чтобы сформировать массив, то самый простой способ - разместить ссылки в текстовый файл, считывать их, формировать массив, а потом прогружать мультипоточной загрузкой.
Здравствуйте. Подскажите, можно ли настроить мультипоточную загрузку страниц, если исходные данные я прогружаю с листа эксель.
То есть имею 100 строк с уникальными ссылками и в соседнюю ячейку от ссылки вывожу определенную информацию, взятую с сайта.
Парсер прорабатывает каждую ссылку по одной, не знаю, куда следует добавить мультизагрузку, чтобы читались сразу все ссылки и потом массово загружались результаты
Добрый день, Павел! Через точку с запятой. Учтите, что границы интервала тоже включаются. Т.е. если поставить
5;10
то условию будут удовлетворять не только числа между, но и 5, и 10.
Здравствуйте. Как в "Проверка на выполнение условия" установить параметр "между"? пробовал через дифис, не получается
Что-то не так настроили. Можем настроить под заказ.
Здравствуйте. Я пытаюсь удалить картинку post запросами. А мне выдает такое сообщение Ошибка! Длина текстового ответа сервера = 0, в байтах: 0, ошибка -2147483638: Данные, необходимые для завершения этой операции еще не доступны.
Здравствуйте, Юрий.
Что-то не так настроили.
Ошибку исправить несложно, но я не телепат, чтобы угадать, в чем именно проблема.
Если готовы оплатить программу, - пишите в скайп, помогу исправить ошибку.
У меня постоянно загружает только 1 страницу результатов и так по кругу. Хотя я нашел все ссылки пейджера. Подскажите пожалуйста в чем может бить дело и как это исправить? Спасибо)
Прогружать все страницы результатов
Третий параметр действия:
http://excelvba.ru/programmes/Parser/actions/LoadHTML
Здравствуйте. Подскажите как в программе определить количество страниц пагинации если показано только 5, но при нажатии стрелки вправо появляется 6 и т.д.?
Если вы программу уже покупали, или готовы купить, - напишите в скайп, попробую помочь с макросом.