Crawlbase Dokumentation Crawlbase Dokumentation
  • Crawling API
  • Scraper API
  • Crawler
  • Smart Proxy
  • Storage API
  • Leads API
  • Screenshots API
  • Proxy Backconnect API
Bibliotheken (opens new window)
Dashboard (opens new window)
Anmelden (opens new window)
Registrieren (opens new window)
  • en-US
  • zh-CN
  • fr-FR
  • de-DE
  • ru-RU
  • Crawling API
  • Scraper API
  • Crawler
  • Smart Proxy
  • Storage API
  • Leads API
  • Screenshots API
  • Proxy Backconnect API
Bibliotheken (opens new window)
Dashboard (opens new window)
Anmelden (opens new window)
Registrieren (opens new window)
  • en-US
  • zh-CN
  • fr-FR
  • de-DE
  • ru-RU
  • Crawling API
  • Scraper API
  • Crawler
    • Crawler Einleitung
    • Übertragen von Daten an die Crawler
    • Webhook-Empfang
    • Crawler APIs
  • Smart Proxy
  • Storage API
  • Leads API
  • Screenshots API
  • Proxy Backconnect API
  • User Agents API
  • Konto-API
  • API Statuscodes

# Crawler Einleitung

Der Crawler ist ein Push-System, das mit Rückrufen arbeitet. Sie pushen URLs an Ihre Crawler Verwendung der Crawling API und den Crawler sendet die gecrawlte Seite an Ihren Server zurück.

Dazu müssen Sie ein Webhook (öffnet neues Fenster) (opens new window) URL auf Ihrem Server (Beispiel: https://myserver.com/crawlbase), um die Daten vom Crawlbase Crawler.

Lesen Sie weiter, um zu erfahren, wie Sie Daten übertragen und empfangen können vom und zum Crawler.

← Antwort Übertragen von Daten an die Crawler →

©2025 Crawlbase