Парсер сайтов и файлов (парсинг данных с сайта в Excel)

Надстройка Parser для MS Excel: общие сведения

Предназначение программы: быстрый сбор любых данных с различных сайтов или файлов, с выводом результата в Excel.

Основные возможности:

  • парсинг интернет-магазинов и любых других сайтов (соцсетей, каталогов, объявлений и т.д.)
  • извлечение данных из файлов формата Word / Excel / txt / PDF
  • скачивание файлов (изображений, документов, и т.п.)
  • обновление цен по ссылкам (мониторинг цен конкурентов / РРЦ)

Особенности программы

Простота использования и настройки

  • Запуск парсера нажатием одной кнопки на ленте Excel
  • Для настройки парсеров не нужно знание программирования!
    Достаточно минимально понимать HTML (что такое теги), и изучить 2 основные команды парсера (загрузка страницы, и поиск тегов). Этого достаточно для 90% задач.
  • Если сами не разберётесь с настройкой — всегда можно заказать нам настройку парсера под вашу задачу.
  • Всё что нужно для работы парсера, это Windows 10 (или новее) и Microsoft Excel (версии 2010 или новее)
    Иногда ещё нужен браузер Google Chrome (для работы с проблемными сайтами)
  • Можно настроить программу под несколько разных сайтов (задач), и легко переключаться между настройками через выпадающий список на панели инструментов программы.

Гибкая постобработка данных

  • Множество текстовых функций для обработки полученной информации
  • Разнообразные фильтры и функции перекодировки
  • Работа с переменными и массивами данных
  • Разбиение значений на отдельные элементы с индивидуальной обработкой
  • Автоматический вывод характеристик товаров в отдельные столбцы
  • Интеллектуальный поиск цен на страницах
  • Поддержка форматов JSON и XML

Продвинутые сетевые возможности

  • Несколько способов загрузки страниц — WinHTTP / WinAPI / WinINET / IE / Google Chrome
  • Авторизация — поддержка входа в аккаунты на различных сайтах
  • Региональные настройки — выбор географического региона для парсинга
  • HTTP-запросы — поддержка GET и POST методов, конструктор запросов
  • Cookies и Headers — полная работа с HTTP-заголовками и куки
  • Многопоточность — до 200 одновременных потоков для ускорения работы
  • Обход защиты — распознавание капчи через сервис RuCaptcha.com, паузы между запросами
  • Браузерная интеграция — работа с защищёнными от роботов сайтами через Google Chrome
  • Кеширование — сохранение данных для повторного использования

Неограниченные возможности поиска и навигации по сайту

  • Рекурсивный поиск страниц на сайтах
  • Поиск данных по HTML-тегам и их атрибутам
  • Автоматическое обнаружение ссылок пагинации (пейджера)
  • Специализированные функции для работы с HTML-таблицами
  • Преобразование HTML в текст и пары "название-значение"
  • Очистка HTML от лишних данных

Интеграция с Excel

  • Чтение данных из файлов Excel для использования в парсинге
  • Создание отдельных листов и файлов
  • Динамическое формирование столбцов для вывода результатов
  • Использование всех встроенных возможностей Excel (условное форматирование, формат ячеек)
  • Удобная панель инструментов для запуска парсинга

Работа с файлами

  • Сбор данных из файлов различных форматов (Word, XML, TXT, Excel, PDF)
  • Обработка файлов из заданных пользователем папок
  • Сохранение изображений и документов под заданными именами в настраиваемые папки

С момента выхода программы в 2014 году, её функционал постоянно развивался (вышли сотни обновлений), поэтому сейчас в парсере есть всё, что только может вам понадобиться для сбора данных из интернета.

Более подробно всё это описано в разделе Справка по программе

Видеоинструкция
YouTube
VK Video
RuTube

На видео рассказывается о работе с программой, и показан процесс настройки парсера интернет-магазина:

Дополнительные видео и подробное описание функционала можно найти в разделе Справка по программе

В программе можно настроить несколько парсеров (обработчиков сайтов).
Любой из парсеров настраивается и работает независимо от других.

Примеры настроенных парсеров (можно скачать, запустить, посмотреть настройки)

Видеоинструкция (2 минуты), как запустить готовый (уже настроенный) парсер

Если вам нужен готовый парсер, но вы не хотите разбираться с настройкой,
— закажите настройку парсера разработчику программы. Стоимость настройки под конкретный сайт - от 2500 рублей.
Настройка под заказ выполняется только при условии приобретения лицензии на надстройку «Парсер» (4000 руб)

Инструкция (с видео) по заказу настройки парсера
По всем вопросам, связанным с заказом, готов проконсультировать вас в Телеграм.

Как скачать и протестировать программу

Комментарии

Кирилл, мой парсер может собирать любые данные с любого сайта. Конечно же, если на сайте эти данные доступны (если сайт даёт эти данные)

Добрый день! А работает ли парсер для получения цен и описания из маркетплейсов? Столкнулся с тем, что озон по апи не дает данные по всей площадке. А при парсинге хтмл постоянно возникают проблемы и везде рекомендуют прокси. Как дела с этим у вашего парсера? Будет рады приобрести

Андрей, мои надстройки работают только под Виндоус. Так что единственный вариант продолжить работу - это виртуальная машина с Виндоус.

Добрый день!
Используем ваш парсер на машинах с ОС Windows
Сейчас осуществляется переход в Win на Unix системы, возможно ли работа парсера в этой среде ?
Если возможно хотел бы связаться по почте или телеграм, для более детального обсуждения

Влад, смотря какие данные нужно собирать. Если нужные вам данные можно найти/увидеть на сайте, то можно. По степени защиты сайта от роботов у меня нет информации.

Доброго дня! Подскажите, ваш парсер реально настроить для скачивания данных с сайта АТИ.су или он слишком хорошо защищен от роботов?? Вы выполняете настройку парсера с сайта АТИ.су под заказ по техзаданию??

Станислав, нужно для начала превратить одно значение из 4 строк в массив из 4 элементов по 1 строке (действие Разбить текстовую строку на массив, разделитель - перевод строки). Потом применить таблицу замен (она применится по очереди к каждому из 4 элементов), а потом обратно соединить элементы массива в одно значение (действием Объединить элементы массива, разделитель - перевод строки)

Добрый день.
Подскажите пожалуйста как мне можно решить вопрос.
У меня выходит результат обработки например четыре строки.

ПУНКТ 1
ПУНКТ 2
ПУНКТ 3
ПУНКТ 4

Как мне можно массово заменить несколько разных значений на новые?

ПУНКТ 1|НОВЫЙ ПУНКТ 1
ПУНКТ 2|НОВЫЙ ПУНКТ 2
ПУНКТ 3|НОВЫЙ ПУНКТ 3
ПУНКТ 4|НОВЫЙ ПУНКТ 4

Есть действие Применить таблицу / список замен, но там меняется только одна первая строка. Может есть какой-то разделитель что бы записать несколько строк в одной? Пытался найти информацию как-то сделать это с помощью массива, но не смог.

Спасибо.

С Уважением,
Станислав.

При создании нового парсера, в настройках на вкладке Вывод на лист / Настройки листа для вывода, галочка Создавать новый файл Excel теперь ставится по умолчанию.
Просто снимите эту галочку, если создавать новый файл не требуется.

У меня вопрос, настроил парсер, вывод в ячейку делает создавая новый файл эксель
не могу понять почему, раньше такого не было, последняя версия парсера/
Исходные данные:
1. Браузер:Открыть страницу
2. Сохранить в переменную

ВЫвод на лист

Действия по Поиску тегов и замене символов

все как обычно
Вчера установил Селениум как у вас в описании

Здравствуйте, Андрей.
Обычно парсер работает намного быстрее (не знаю, что и как там у вас настроено)
Высылайте мне на почту файл настроек парсера, посмотрю в чем проблема.

Здравствуйте! Можно ли как-то ускорить работу парсера и задействовать больше ресурсов системы? Товаров 13000, в итоге в час получается по 200 строк примерно. Можно быстрее сделать? не убавляя объем парса

Евгений, нет, нельзя. Мой парсер - это надстройка для Excel, она на хостинг не ставится...

Можно ли установить парсер на удаленный сервер / хостинг и получать данные по webhook?

Алексей, напишите мне в телеграм, и скиньте ссылку на страницу с пейджером.

Подскажите пожалуйста что делать? разобрался в настройке более менее, но не могу понять как получить все ссылки пейджера, если на самом сайте они указаны в формате <назад> <1><2><3><4><5> <далее>. пейджер отображает только 5 этих ссылок, а страниц там 313(может изменяться)

Обновление надстройки Parser (версия 4.3.12 от 14 июня 2024)

+ мониторинг цен: реализован запуск по расписанию
+ мониторинг цен: выделение маркерами ячеек с изменёнными ценами

Обновление надстройки Parser (версия 4.3.5)

+ реализована автоматическая установка Selenium и обновление драйвера браузера Chrome
+ доработано меню программы

Обновление надстройки Parser (версия 4.3.0)

+ множественные доработки по мониторингу цен
+ реализован поиск ссылок на товары, и анализ конкурентов
+ переделано меню программы

Да, парсер может работать и с сайтами с кириллическим доменом.
Просто на этом конкретном сайте есть защита от роботов, и нужно использовать для загрузки браузер Chrome (способ загрузки = Browser)

Здравствуйте, ратриваю возможность приобретения лицензии на парсер сайтов. По видеоинструкции повторил за Вами - на сайте Одиссей, книжный магизин - все работает. Мне же нужно парсить с сайта, название которого на русском. И вот в данном случае не работает парсер - на начальном этапе загрузки страницы грузит ее , но в каком то другом коде, в котором нет информации по ссылкам, тегам и т.д. К примеру я искал в загруженном в парсер коде русские буквы - не нашел. Вопрос - а парсер может работать с сайтами нахвание которых на русском? При копировании ссылки на сайт получается вот такая вот абра кадабра: https://xn--80az8a.xn--d1aqf.xn--p1ai/%D1%81%D0%B5%D1%80%D0%B2%D0%B8%D1%...

Здравствуйте, Ирина.
Не понятен ваш вопрос.
Как вывести - не знаю. Это вы должны придумать сами, в каком виде вам нужен результат на листе Excel.
Как настроить - тут можно как угодно сделать (парсер гибко настраивается). Могу настроить под заказ.

а как парсить почты, если их несколько, в отдельные ячейки, но сохранять при этом в другой имя организации?
Например тут https://amikta.ru/kontakty/ есть несколько почт, но организация и телефон - одна

Обновление надстройки Parser (версия 4.2.0 от 4 мая 2023)

+ добавлено новое действие «Траспонировать таблицу»
+ в действии «HTML: замена / изменение тегов» теперь можно вычислять новое содержимое тега вызовом набора действий
+ возможность задавать форматирование ячеек (полужирный шрифт, размер шрифта, формат ячеек)
+ переделано действие «Регулярные выражения»
+ доработки по интерфейсу списка действий (можно упорядочить список изобранных действий, некоторые действия получили более понятные имена)

Обновление надстройки Parser (версия 4.1.10 от 3 мая 2023)

+ добавлено действие «Информация о файле» (дата создания / изменения файла, размер файла, и т.п.)
+ теперь можно включать / отключать приём Cookies в действиях для POST запроса и загрузки страницы
+ добавлена возможность задавать минимальную и максимальную высоту строк при выводе на лист
+ при экспорте содержимого файла Word в формат HTML, теперь в результат (HTML) выводятся и ссылки на файлы картинок
+ мелкие исправления по интерфейсу

Здравствуйте.
Пересмотрите видеоинструкцию по программе.
На этапе тестирования нужно подставлять ссылку (из любой ячейки) в поле ИСХОДНОЕ ЗНАЧЕНИЕ в окне тестирования
(а не в параметр URL действия!)
В ходе работы (после запуска парсера), значения будут браться автоматически из ячеек.
А для теста нужно вручную подставлять исходную ссылку.

Здравствуйте, сейчас тестирую ваш парсер.
Возник вопрос при режиме парсера "брать данные с листа, из заданного столбца". Задал столбец, перешел в редакцию списка действий и выбрал действие "Загрузить ИСХОДНЫЙ КОД веб-страницы". При тестировании не загружает, ведь по логике парсер должен исходить из заданного столбца, чего не происходит.
Подставил первое значение с заданного столбца в URL - выдал результаты по 1му значению, остальное пустое при выводе данных на лист. Изменял кодировку - не получается. На фазе тестирования ничего не происходит. Какое действие нужно производить вместо "Загрузить ИСХОДНЫЙ КОД веб-страницы" ?
Основная задача получить прямые ссылки с облака, в заданном столбце ссылки на облако.

Здравствуйте.
Да, можно, только там настройка посложнее, чем в случае с обычными сайтами (интернет-магазинами)
Иногда ссылку можно найти где-то в дебрях исходного кода загруженной страницы, иногда нужно сделать дополнительный POST запрос для получения этих ссылок.
Но ничего невозможного нет. Можем настроить под заказ.

Здравствуйте, можно ли при помощи этого парсера скачивать картинки с файлообменников? Для примера в экселе есть ссылки на 1 или несколько картинок, при помощи парсера я загружаю исходную страницу по ссылке с экселя, далее ищу тег картинки но не находит. в хтмл коде тег картинки указана как ссылка. пытался прогрузить эту ссылку в парсер, не получается. подскажите пожалуйста в чем может быть проблема

Наталья, да, можно.