Scrapy: аналоги и альтернативы для "Linux"

Иконка приложения Scrapy

Scrapy

  • (262)
Аналоги и альтернативы

Scrapy описывается как ''

Мы собрали 78 аналогов к Scrapy для различных платформ, включая Андроид, iPhone, iPad, Mac, Linux и Windows, работающих как Онлайн, так и Офлайн. В том числе 19 аналогов для "Linux", поэтому надеемся вы сможете найти подходящую альтернативу.

Лучшая альтернатива Scrapy для "Linux" - это UI.Vision RPA, про которую вы можете прочитать на нашем сайте. Другие хорошие приложения, похожие на Scrapy - это: ParseHub и Portia

Все аналоги и альтернативы

Иконка приложения UI.Vision RPA
Инструмент автоматизации задач и тестирования с открытым исходным кодом и Selenium IDE. Программное обеспечение UI.Vision RPA — это расширение для браузера, которое также может выполнять автоматизацию рабочего стола! Используйте его для веб-автоматизации, заполнения форм, очистки экрана и роботизированной автоматизации процессов (RPA).


Иконка приложения Portia

Portia

  • (404)
Инструмент визуального парсинга с открытым исходным кодом, который позволяет вам парсить Интернет без кодирования, созданный создателями Scrapy.

Иконка приложения import.io

import.io

  • (351)
import.io — это веб-платформа, которая позволяет извлекать данные из Интернета без написания кода.

Иконка приложения TagUI

TagUI

  • (359)
TagUI — инструмент RPA/CLI для автоматизации взаимодействия с пользователем

Иконка приложения Diggernaut

Diggernaut

  • (304)
Diggernaut — это облачный сервис для веб-скрапинга, извлечения данных и других задач ETL. Планируйте и запускайте парсеры в облаке или компилируйте и запускайте на своем ПК.

Иконка приложения Textricator

Textricator

  • (329)

Textricator — это инструмент для извлечения текста из созданных компьютером PDF-файлов и создания структурированных данных. Если у вас есть несколько PDF-файлов с одинаковым форматом (или один большой, последовательно отформатированный PDF-файл) и вы хотите извлечь данные в CSV или JSON,


Иконка приложения StormCrawler

StormCrawler

  • (236)

StormCrawler — это SDK с открытым исходным кодом для создания распределенных поисковых роботов с помощью Apache Storm.


Иконка приложения ScrapeStorm

ScrapeStorm

  • (217)
ScrapeStorm — это визуальный инструмент для парсинга веб-страниц на основе искусственного интеллекта, который можно использовать для извлечения данных практически с любых веб-сайтов без написания кода. Это мощный и очень простой в использовании. Он поддерживает операционные системы Windows, Mac OS и Linux.


Иконка приложения Web Robots

Web Robots

  • (373)
Web Robots — это платформа для парсинга веб-страниц, созданная для работы в современной сети. Он работает с любыми веб-сайтами, которые открываются в браузере Chrome. Веб-роботы могут обрабатывать Javascript, AJAX, файлы cookie, сеансы и перенаправления, формы, входы в систему, клики.

Иконка приложения ACHE Crawler

ACHE Crawler

  • (404)

ACHE — это поисковый робот для доменного поиска.


Иконка приложения ScrapingBytes
ScrapingBytes позволяет разработчикам легко очищать веб-сайты. Наш сервис способен отображать веб-сайты Javascript, включая одностраничные приложения. Мы работаем с безголовыми браузерами, вращающимися прокси (жилыми, мобильными и центрами обработки данных) и многим другим.

Иконка приложения QuickScraper

QuickScraper

  • (295)
Quick Scraper API обрабатывает прокси-серверы, браузеры и CAPTCHA, поэтому вы можете получить HTML-код с любого веб-сайта с помощью простого вызова API!

Иконка приложения Scrape.do

Scrape.do

  • (288)

Лучшая альтернатива ротационному прокси и парсингу API

Вам не нужно тратить часы на создание собственных правил ротации IP и оплату различных услуг. Просто используйте scrape.do и платите только за успешные запросы. Это очень легко и быстро!


Иконка приложения Free Data Collector

Free Data Collector позволяет быстро и легко собирать данные с любого веб-сайта. Он предлагает интерфейс, похожий на Excel. Вы можете визуально скомпоновать свой окончательный файл и легко захватить нужные веб-элементы благодаря нашему руководству «укажи и щелкни».


Иконка приложения get-set, Fetch!

Парсер Nodejs. Используйте его из собственного кода, через командную строку или докер-контейнер. Поддерживает несколько вариантов хранения: SQLite, MySQL, PostgreSQL. Поддерживает несколько браузерных или dom-клиентов: Puppeteer, Playwright, Cheerio, JSdom.


Иконка приложения WebScraping.Download

это визуальное программное обеспечение для извлечения данных с веб-сайтов, оно предназначено для работы на ноутбуке, планшете, ПК и не нуждается в облаке.


Иконка приложения Data Miner

Data Miner

  • (413)
Data Miner — это расширение для Google Chrome, которое помогает собирать данные с веб-страниц в файл CSV или электронную таблицу Excel.