mail mail
Нужен макрос для Excel?
Сделайте заказ прямо сейчас!
Ищете готовое решение?
Выбирайте и покупайте!
У вас есть интернет-магазин?
Настроим парсер под любой сайт!

Скачать бесплатно пробную (TRIAL) версию программы:
Parser.xla (версия 3.0.0 от 11.10.2017)


Парсер сайтов и файлов (парсинг данных с сайта в Excel)

Структура программы «Парсер сайтов»

Надстройка Parser для Excel — простое и удобное решение для парсинга любых сайтов (интернет-магазинов, соцсетей, площадок объявлений) с выводом данных в таблицу Excel (формата XLS* или CSV), и также скачивания файлов.

Особенность программы — очень гибкая настройка постобработки полученных данных (множество текстовых функций, всевозможные фильтры, перекодировки, работа с переменными, разбиение значения на массив и обработка каждого элемента в отдельности, вывод характеристик в отдельные столбцы, автоматический поиск цены товара на странице, поддержка форматов JSON и XML).

 

В парсере сайтов поддерживается авторизация на сайтах, выбор региона, GET и POST запросы, приём и отправка Cookies и заголовков запроса, получение исходных данных для парсинга с листа Excel, многопоточность (до 200 потоков), распознавание капчи через сервис RuCaptcha.com, работа через браузер (IE), кеширование, рекурсивный поиск страниц на сайте, сохранение загруженных изображений товара под заданными именами в одну или несколько папок, и многое другое.

Поиск нужных данных на страницах сайта выполняется в парсере путем поиска тегов и/или атрибутов тегов (по любому свойству и его значению). Специализированные функции для работы с HTML позволяют разными способами преобразовывать HTML-таблицы в текст (или пары вида название-значение), автоматически находить ссылки пейджера, чистить HTML от лишних данных.

За счёт тесной интеграции с Excel, надстройка Parser может считывать любые данные из файлов Excel, создавать отдельные листы и файлы, динамически формировать столбцы для вывода, а также использовать всю мощь встроенных в Excel возможностей.
Поддерживается также сбор данных из текстовых файлов (формата Word, XML, TXT) из заданной пользователем папки, а также преобразование файлов Excel из одного формата таблицы в другой (обработка и разбиение данных на отдельные столбцы)

В программе «Парсер сайтов» можно настроить обработку нескольких сайтов. Перед запуском парсинга (кнопкой на панели инструментов Excel) можно выбрать ранее настроенный сайт из выпадающего списка.

Пример использования парсера для мониторинга цен конкурентов

 

Видеоинструкция по настройке парсера сайтов для формирования прайса с интернета-магазина:

 

Дополнительная видеоинструкция: загрузка страниц и авторизация на сайте

 

В программе можно настроить несколько парсеров (обработчиков сайтов).
Любой из парсеров настраивается и работает независимо от других.

Примеры настроенных парсеров (можно скачать, запустить, посмотреть настройки)

Видеоинструкция (2 минуты), как запустить готовый (уже настроенный) парсер

 

Настройка программы, - дело не самое простое (для этого, надо хоть немного разбираться в HTML)

Если вам нужен готовый парсер, но вы не хотите разбираться с настройкой,
— закажите настройку парсера разработчику программы. Средняя стоимость настройки под конкретный сайт, - 1500 рублей.
(настройка под заказ выполняется только при условии приобретения лицензии на надстройку «Парсер» (2500 руб)

Инструкция (с видео) по заказу настройки парсера
По всем вопросам, готов проконсультировать вас в Скайпе.

 

Программа не привязана к конкретному файлу Excel.
Вы в настройках задаёте столбец с исходными данными (ссылками или артикулами),
настраиваете формирование ссылок и подстановку данных с сайта в нужные столбцы,
нажимаете кнопку, - и ваша таблица заполняется данными с сайта.

Программа «Парсер сайтов» может  быть полезна для формирования каталога товаров интернет-магазинов,
поиска и загрузки фотографий товара по артикулам (если для получения ссылки на фото, необходимо анализировать страницу товара),
загрузки актуальных данных (цен и наличия) с сайтов поставщиков, и т.д. и т.п.

 

Ссылки на инструкции по программе «Парсер сайтов» (список инструкций пополняется)

Можно попробовать разобраться с работой программы на примерах настроенных парсеров

Комментарии

Скажите, а можно ли без загрузки исходного кода страницы определить существует ли такая страница? Пример, берем диапазон страниц для парсинга с 1 по 5. парсим каталог со страницами с 1 по 4. 5 страницы не существует. Ошибка 404 грузиться с сайта. Можно ли это сделать?

покупка программ автоматизирована
http://excelvba.ru/buy/addin?name=Parser
Только сначала всё настройте, - т.е. убедитесь, что все работает как надо

Добрый день! Напишите, как купить программу?

Добрый день, Игорь. Я разобрался: есть соответствующее действие "запустить парсер".

Здравствуйте, Марк.
Да, конечно можно.
Например, если подставлять из столбца 4, напишите в это поле {4}
Или если надо подставить из переменной val, напишите %val%
Если сами не разберетесь, - звоните в скайп, помогу.

Добрый день, подскажите а можно ли в действие "Добавить передаваемое POST-значение" в поле value передавать значения из ячеек таблицы?

Здравствуйте, Никита
Не совсем понял, что подразумевается под периодическим запуском.
Сейчас в программе такого нет, но в планах есть сделать что-то подобное.
Позвоните мне в скайп, обсудим (что как должно запускаться), — и, может, что-нибудь придумаем.
Ник в скайпе: ExcelVBA.ru

Добрый день!
Купил и настроил десятк парсеров. Теперь вопрос: можно ли автоматизировать периодический запуск всех настроенных парсеров одновременно?

Сабрина, заголовки запросов, скорее всего, не помогут избежать бана или капчи.
Для Озона, заголовки передаются для другой цели, - без них сервер просто не выдает ответ. А бана на Озоне вроде нет.
Если выскакивает капча, - обычно нужна авторизация, и пауза между запросами.
Для некоторых сайтов (типа Яндекс.Маркета) и этого недостаточно, - как минимум один раз выскочит запрос капчи.
Т.е. всё зависит от конкретного сайта.
PS: В программе есть возможность отобразить картинку капчи, чтобы пользователь ввел текст с неё для продолжения.
(обычно в таких случаях настройка достаточно сложная, - можем настроить под заказ)

Игорь, здравствуйте. В примере настроенного парсера (книги с 3 сайтов) вы добавляете заголовки запроса для Озон, чтобы не попасть в бан. У меня аналогичная ситуация с другим сайтом - выдает капчу после нескольких запросов. Я добавила такие же заголовки запроса, как в примере, но результат тот же. Есть ли способ узнать, какие заголовки запроса ждет данный сайт, чтобы добавить именно их?

Михаил, по пейджеру страниц - универсального решения пока нет.

Сейчас я делаю так (при помощи нескольких действий)
1) запоминаем ссылку на страницу в переменную (например, в переменную URL)
2) прогружаем страницу (получить HTML код веб-страницы)
3) находим пейджер - обычно это div класса navigation
4) находим в нем все теги a, берем текст этих тегов (innerHTML)
5) находим максимальное значение в массиве чисел (действие из раздела числовых функций)
6) создаем массив чисел от 1 до найденного максимального (действие из раздела Массивы)
7) дописываем текст до и после (например, перед каждым числом добавляем %URL%?page= )

Если сами не разберетесь, - звоните в скайп, помогу
Ник в скайпе: ExcelVBA.ru
Чтобы я смог помочь, от вас надо: http://ExcelVBA.ru/help

Здравствуйте, Игорь!
Поясните, как пользоваться функцией загрузки следующей страницы (page=+1) и проверка существования такой страницы

да, можно.
заказы на парсер принимаются в таком виде
http://excelvba.ru/programmes/Parser/order

можно ли настроить сайт www.caiga.ru для выкачивания данных?

Здравствуйте, Олег.
Если готовы приобрести программу, - помогу с настройкой авторизации.
Чтобы я смог помочь, от вас надо: http://ExcelVBA.ru/help

Добрый день! Спасибо за парсер! Увы, но у меня никак не получается пройти авторизацию (доменную) для загрузки исходного кода страницы.

Здравствуйте, Екатерина
Заказы на парсер принимаются в таком виде
http://excelvba.ru/programmes/Parser/order
Только в этом случае мы можем озвучить точную стоимость.
Сама программа стоит 2500 руб, + настройка под сайт LinkedIn обойдется примерно в ту же сумму.
Итого, около 5 т.р. за готовое решение.

большое спасибо за ответ.
скажите, а сколько будет стоить парсер именно для сайта LinkedIn? данный парсер должен собирать информацию из профилей (выданных после поиска по определенным критериям) в таблицу, примерные столбцы - фио, дата рождения, город, специальность, компания в которой работает в н.в. и должность, ну и контактная информация.

Я удаляю только анонимные комментарии (где не указан email, на который ответить), и когда в комментарии претензии необоснованные.
Вы не имя, ни email свой, ни указали, - что я вам должен ответить?
А работа у меня налажена, а на парсеры никто из покупателей не жалуется. кроме анонимов)

Настройте работу, комментарии всегда проще удалить, чем удалить не понравившийся комментарий
Удачи!
Парсеры ни о чем, с клиентами не работают

Екатерина, OneNote и Word, конечно, отличные способы хранения базы данных (как и MS Paint), — но моя программа выводит данные только в таблицу Excel (а оттуда результат можно скопировать куда угодно)
По соцсетям и хедхантеру, — там наверняка есть ограничения по количеству просмотра профилей / резюме.
Так что собрать данные можно, - но только в пределах, которые позволяет это сделать конкретный сайт.

добрый день, а можно ли ваш парсер сайтов использовать скажем для сбора резюме с сайта хэдхантер или профилей из социальных сетей в базу в one note? ну или в word хотя бы :))
спасибо.

По авито - не в курсе, не настраивал (у моего коллеги есть решение под авито, - отдельная программа)
Если готовы купить готовое решение для парсинга Авито, - пишите на почту или в скайп.

А как быть с подтягиванием данных с сайта авито? Интересует именно телефон. Другие поля подтянуть можно. А вот как быть с телефоном?

Владимир, для загрузки картинок по ссылкам,
у меня есть другая программа, - намного проще, чем парсер,
- и она корректно обрабатывает такие ссылки (только что проверил):
http://excelvba.ru/programmes/PastePictures

Пытался настроить парсер на скачивание картинок по ссылкам
=ГИПЕРССЫЛКА("http://www.gardenbulbs.ru/images/Bushes_CL/thumbnails/"&Q10&".jpg";"фото1")
в ячейке Q10 Abeliophyllum distichum 1
не работает

Упрощенный вариант макросов на скачивание по ссылкам тоже не работает

начинает работать если указать адрес страницы без Гиперссылки

Сабрина, по приведенной вами ссылке всего 2 отзыва, и они видны без прокрутки.
Потому, ничего подсказать не могу
Напишите мне в скайп ссылку, где надо прокручивать страницу, - что-нибудь придумаем

Спасибо за быстрый ответ. Конечно, решила пойти по пути наименьшего сопротивления и сделать через IE. Но это оказалось не так уж просто ;) Прокрутить страницу ни с задержкой, ни с маской кода ссылки не получилось. Найти элемент в Internet Explorer по id и щелкнуть по нему - тоже, говорит: элемент не найден. Но, если искать через Поиск тега по ID элемента — находится нормально. Что я делаю не так?

Здравствуйте, Сабрина.
Такая возможность есть, - только настройка сложнее получится.
Есть 2 варианта:
Вариант 1 - простой, но порой может подвисать, - для загрузки страницы использовать Internet Explorer, а потом применить действие «Прокрутить страницу в IE»
Вариант 2 - по аналогии с браузером, выполнять POST запросы для получения очередной порции данных
(в настройке намного сложнее, - около 15-20 действий, в отличие от 2 действий в предыдущем варианте)

Здравствуйте. Спасибо за такой функциональный и гибкий инструмент. Возникла только одна сложность — есть ли возможность добыть контент, подгружаемый javascript'ом? Например, отзывы на Озон подгружаются по мере прокрутки страницы http://www.ozon.ru/reviews/7002504/#tab_comments и парсер их не находит по имени класса (например, eCommentCell). Спасибо.

Отправить комментарий

Содержание этого поля является приватным и не предназначено к показу.
CAPTCHA
Подтвердите, пожалуйста, что вы - человек:
          ____    _    ___     ____   ____  
_ __ |___ \ | | ( _ ) / ___| | _ \
| '_ \ __) | | | / _ \ | | _ | |_) |
| | | | / __/ | | | (_) | | |_| | | __/
|_| |_| |_____| |_| \___/ \____| |_|
Введите код, изображенный в стиле ASCII-арт.