Парсер сайтов и файлов (парсинг данных с сайта в Excel)

Надстройка Parser для MS Excel: общие сведения

Предназначение программы: быстрый сбор любых данных с различных сайтов или файлов, с выводом результата в Excel.

Основные возможности:

  • парсинг интернет-магазинов и любых других сайтов (соцсетей, каталогов, объявлений и т.д.)
  • извлечение данных из файлов формата Word / Excel / txt / PDF
  • скачивание файлов (изображений, документов, и т.п.)
  • обновление цен по ссылкам (мониторинг цен конкурентов / РРЦ)

Особенности программы

Простота использования и настройки

  • Запуск парсера нажатием одной кнопки на ленте Excel
  • Для настройки парсеров не нужно знание программирования!
    Достаточно минимально понимать HTML (что такое теги), и изучить 2 основные команды парсера (загрузка страницы, и поиск тегов). Этого достаточно для 90% задач.
  • Если сами не разберётесь с настройкой — всегда можно заказать нам настройку парсера под вашу задачу.
  • Всё что нужно для работы парсера, это Windows 10 (или новее) и Microsoft Excel (версии 2010 или новее)
    Иногда ещё нужен браузер Google Chrome (для работы с проблемными сайтами)
  • Можно настроить программу под несколько разных сайтов (задач), и легко переключаться между настройками через выпадающий список на панели инструментов программы.

Гибкая постобработка данных

  • Множество текстовых функций для обработки полученной информации
  • Разнообразные фильтры и функции перекодировки
  • Работа с переменными и массивами данных
  • Разбиение значений на отдельные элементы с индивидуальной обработкой
  • Автоматический вывод характеристик товаров в отдельные столбцы
  • Интеллектуальный поиск цен на страницах
  • Поддержка форматов JSON и XML

Продвинутые сетевые возможности

  • Несколько способов загрузки страниц — WinHTTP / WinAPI / WinINET / IE / Google Chrome
  • Авторизация — поддержка входа в аккаунты на различных сайтах
  • Региональные настройки — выбор географического региона для парсинга
  • HTTP-запросы — поддержка GET и POST методов, конструктор запросов
  • Cookies и Headers — полная работа с HTTP-заголовками и куки
  • Многопоточность — до 200 одновременных потоков для ускорения работы
  • Обход защиты — распознавание капчи через сервис RuCaptcha.com, паузы между запросами
  • Браузерная интеграция — работа с защищёнными от роботов сайтами через Google Chrome
  • Кеширование — сохранение данных для повторного использования

Неограниченные возможности поиска и навигации по сайту

  • Рекурсивный поиск страниц на сайтах
  • Поиск данных по HTML-тегам и их атрибутам
  • Автоматическое обнаружение ссылок пагинации (пейджера)
  • Специализированные функции для работы с HTML-таблицами
  • Преобразование HTML в текст и пары "название-значение"
  • Очистка HTML от лишних данных

Интеграция с Excel

  • Чтение данных из файлов Excel для использования в парсинге
  • Создание отдельных листов и файлов
  • Динамическое формирование столбцов для вывода результатов
  • Использование всех встроенных возможностей Excel (условное форматирование, формат ячеек)
  • Удобная панель инструментов для запуска парсинга

Работа с файлами

  • Сбор данных из файлов различных форматов (Word, XML, TXT, Excel, PDF)
  • Обработка файлов из заданных пользователем папок
  • Сохранение изображений и документов под заданными именами в настраиваемые папки

С момента выхода программы в 2014 году, её функционал постоянно развивался (вышли сотни обновлений), поэтому сейчас в парсере есть всё, что только может вам понадобиться для сбора данных из интернета.

Более подробно всё это описано в разделе Справка по программе

Видеоинструкция
YouTube
VK Video
RuTube

На видео рассказывается о работе с программой, и показан процесс настройки парсера интернет-магазина:

Дополнительные видео и подробное описание функционала можно найти в разделе Справка по программе

В программе можно настроить несколько парсеров (обработчиков сайтов).
Любой из парсеров настраивается и работает независимо от других.

Примеры настроенных парсеров (можно скачать, запустить, посмотреть настройки)

Видеоинструкция (2 минуты), как запустить готовый (уже настроенный) парсер

Если вам нужен готовый парсер, но вы не хотите разбираться с настройкой,
— закажите настройку парсера разработчику программы. Стоимость настройки под конкретный сайт - от 2500 рублей.
Настройка под заказ выполняется только при условии приобретения лицензии на надстройку «Парсер» (4000 руб)

Инструкция (с видео) по заказу настройки парсера
По всем вопросам, связанным с заказом, готов проконсультировать вас в Телеграм.

Как скачать и протестировать программу

Комментарии

Добрый день, Игорь! Вставлю свои "пять копеек" в части предложения по обработке большого количества ссылок.
Не плохо было бы сделать опцию автосохранения выходного файла данных во время работы парсера. Соответственно если парсится на текущий лист, то сохранять под текущим именем. Если открывается новый лист - в опциях задавать имя файла для сохранения. Ну и конечно задавать интервал времени, после которого делать сохранение.
Весьма актуально, поскольку бывают сбои и в операционной системе и в компьютере. И очень обидно после многочасового парсинга потерять данные.
Я сейчас периодически вручную делаю сохранение во время работы, но это не совсем удобно и не совсем корректно.

Спасибо, многопоточная загрузка это когда несколько циклов параллельно идут, я правильно понял?
Мне было бы интересней не заказывать парсеры, а обучаться их созданию)) Семинаров нет?

Александр, вряд ли вам получится заметно всё это ускорить.
На 90% скорость парсинга зависит от степени «тормознутости» сайта, на которую вы повлиять никак не можете
(есть сайты, где можно за секунду 10 запросов выполнить, а есть медленные, где каждый запрос несколько секунд занимает)

Как можно ускорить работу парсера (речь про оставшиеся 10% - вряд ли вы заметите изменения, так что я не стал бы этого делать):
1) комп помощнее
2) интернет пошустрее
3) выводить на лист не по одной строке, а по несколько (опция на вкладке «Настройки листа для вывода»)

PS: Как можно заметно ускорить работу парсера: использовать многопоточную загрузку
Не все сайты это позволяют, не везде это стабильно работает (от сайта зависит),
но в некоторых случаях позволяет сократить время загрузки страниц в 5-15 раз
Это надо перенастраивать парсер. Можем сделать под заказ.

Здравствуйте! А от чего зависит скорость работы программы? В моём случае хочу что бы работало быстрей и не могу пока прикинуть, то ли комп разгонять, то ли интернет, то ли смирится.
1. Парсер берет из заданного столба значения, коих выходит 75.000,
2. удаляет некоторые символы, подставляет текст для получения ссылки,
3. грузит страницу,
4. по тегам определяет количество строк таблицы,
5. удаляет по маске негодные,
6. из оставшихся строк получает ссылки
7. и грузит страницу по ним.

Выводит
1. изначальное значение,
2. значение между блоками текста,
3. еще одно значение между блоками текста
4. и поиск по тегам с отрезанием лишнего текста.

На выходе получается 75.000+20%

за 15 часов работы обработано 68% от общего количества изначальных значений.
Сайт донор - FarPost
настройки по умолчанию

К сожалению, у меня сайт в кодировке Windows:(

Парсером можно сохранить файл в формате CSV с кодировкой utf-8, где все эти символы останутся
По умолчанию, Excel создаёт CSV в другой кодировке (ANSI), - там да, символы режутся
Если у вас сайт поддерживает импорт CSV файлов в кодировке utf-8 (или utf-16), то проблема решается без этого колдовства с заменами символов

Объясняю, я после парсинга преобразовываю данные в нужный мне формат, а далее делаю импорт на свой сайт посредством csv файла. При сохранении в csv все юникод символы "режутся". Поэтому до сегодняшнего дня просто заменял на html код, пока не столкнулся с источником, где очень большой объем и большое количество таких символов. Вручную их все найти весьма трудоемко... Возможности переделать импорт сейчас у меня нет. Если задача слишком частная для парсера, готов заказать макрос, который будет каким-то образом "подсвечивать" символы юникод, с целью дальнейшей фильтрации и замены на html коды

Олег, непонятно, что надо получить на выходе (и зачем вообще эти символы преобразовывать, - нормально же они выводятся на странице, так же, как и любые другие символы)
Чем эти символы хуже других букв? Почему их надо во что-то преобразовывать?

Спасибо за ответ, но все не совсем так. Я не делаю преобразования html в текст, а просто сохраняю данные таблицы после поиска соответствующего тега.
И символы в исходнике идут не в виде кодов. Вот пример для пояснения:
https://mall.industry.siemens.com/mall/ru/ru/Catalog/Products/10204211
Вкладка "Информация продукта" и далее таблица спецификации внизу.
Ну и далее например 9 строка таблицы "Input current" с комбинациями I²t и 0.02 A²·s

Добрый день. Какова может быть причина отсутствия ответа с сервера сайта и, вследствие чего, не возможность выгрузки исходного кода веб-страницы?

Олег, не нужны тут таблицы замен
Изначально же эти символы идут на веб-странице в виде спецкодов, - не надо просто включать преобразование HTML в текст, и они останутся в том виде, в каком вам нужно.

Добрый день, Игорь!
При парсинге технических спецификаций на выходе в тексте появляется большое количество юникод символов типа Ø, ² и пр.
С помощью таблиц замен я перевожу их в html символы. Но главная проблема для меня в большом объеме выходных данных найти все эти символы, чтобы включить в таблицу замен. Может добавить функцию "маркировки" таких символов или замены их на коды символов Unicode? Или уже есть готовое решение может быть?

Алексей, да, можно. Можно под любую задачу настроить.

Можно ли использовать программу для сохранения в Excel всех комментариев к определенному видео из Youtube?

Евгений, напишите мне в скайп
Если готовы приобрести программу, - попробую помочь

Игорь. Добрый день!
В настройках парсера есть функция "Ожидание данных в Internet Explorer."
там можно задать маску нужного HTML кода. Подскажите как на главной yandex дождаться загрузки информации о погоде.

Да, возможно, - если вы опишите, как бы вы это делали вручную.
Высылайте заказ на почту

Здравствуйте! Подскажите, возможно ли настроить вашу программу на парсинг сайта https://egrul.nalog.ru/ ?
Интересует итоговая выборка по региону и дате регистрации, такое возможно?

Здравствуйте, Артём.

Что-то подобное нужно?
Если да, - там есть контакты, по которым свяжетесь, - вам озвучат стоимость.

Если что-то другое, — высылайте заказ на парсер

Добрый день сколько будет стоить парсер для выгрузки данных на сайте https://rosreestr.ru/wps/portal/online_request

Программа-парсер стоит 2500 руб + настройка около 1500 руб
Итого, 4 т.р. за готовое решение

добрый день, сколько стоит написать парсер (или еще как назовете) есть исходный файл xml, его необходимо сохранять в текстовик с нужным форматом, (часть данных из исходного xml).стандантными средствами windows /office 2007

Да, конечно можно
Полная стоимость платится один раз, потом в любой момент можете докупать активации для новых компов, по 300 руб за комп.

Добрый день!

Подскажите, пожалуйста, можно ли изначально купить лицензию (1+1), а потом, в случае необходимости, докупить третью за 300 руб? Либо будет необходимо вновь платить полную стоимость при повторной покупке?

Здравствуйте, Василий
У парсера нет такой возможности (он не умеет считывать размеры изображения из графического файла произвольного формата)

Но это может другая надстройка (PastePictures)
http://excelvba.ru/programmes/PastePictures
Там можно вывести размеры изображений в заданный столбец (опция в настройках на вкладке Дополнительно)

Здравствуйте. Подскажите пожалуйста как можно с изображения взять его размер. Парсер настроен, не получается с размерами фото. У меня формируется таблица с сайта и мне нужно помимо ссылки на фото что бы вставлялся ее размер в другой столбец. Можно ли это сделать и как?

Добрый день, Иван!

да, смотрите пример - Обработка подуровней разной вложенности на примере парсинга сайта cefalon.by - оптовая продажа женской одежды и аксессуаров
http://excelvba.ru/programmes/Parser/samples/cefalon.by

на странице с примерами для изучения много полезных материалов: http://excelvba.ru/programmes/Parser/samples/category/StudyParcer

Добрый день.
Есть ли пример настроенного парсера, где неодинаковая структура многоуровневых каталогов. Например 1 ссылка - 1 вложенный каталог, 2 - 3 вложенных каталога и тд. При настройке на такие сайты парсер или не доходит до какого-нибудь каталога, либо если вложенных каталогов нет, ничего не выводит. Заранее спасибо за ответ

Да, в любой версии должно всё работать
Убедитесь, что макросы в Excel включены.

ВАЖНО: перед запуском скачанного файла надстройки, необходимо выполнить следующее:

> найти скачанный файл надстройки в папке (обычно это папка «Загрузки»)
> щелкнуть правой кнопкой мыши на файле - Свойства - Разблокировать - ОК
> и только после этого запускать

Не получается установить данную надстройку на Excel 2016. Поддерживается ли она им?