Crawlbase Dokumente Crawlbase Dokumente
  • Crawling API
  • Scraper API
  • Crawler
  • Intelligenter KI-Proxy
  • Cloud Storage
  • Leads API
  • Screenshots API
  • Proxy-Backconnect-API
Bibliotheken (öffnet neues Fenster)
Dashboard (öffnet neues Fenster)
Einloggen (öffnet neues Fenster)
Registrieren (öffnet neues Fenster)
  • en-US
  • zh-CN
  • fr-FR
  • de-DE
  • ru-RU
  • Crawling API
  • Scraper API
  • Crawler
  • Intelligenter KI-Proxy
  • Cloud Storage
  • Leads API
  • Screenshots API
  • Proxy-Backconnect-API
Bibliotheken (öffnet neues Fenster)
Dashboard (öffnet neues Fenster)
Einloggen (öffnet neues Fenster)
Registrieren (öffnet neues Fenster)
  • en-US
  • zh-CN
  • fr-FR
  • de-DE
  • ru-RU
  • Crawling API
  • Scraper API
  • Crawler
    • Crawler Einführung
    • Übertragen von Daten an die Crawler
    • Webhook-Empfang
    • Crawler APIs
  • Smart AI Proxy
  • Cloud Storage
  • Leads API
  • Screenshots API
  • Proxy Backconnect API
  • User Agents API
  • Account API
  • API Status Codes

# Crawler Einführung

Die Crawler ist ein Push-System, das mit Rückrufen arbeitet. Sie pushen URLs an Ihre Crawler Verwendung der Crawling API und der Crawler sendet die gecrawlte Seite an Ihren Server zurück.

Dazu müssen Sie ein Webhook (öffnet neues Fenster) URL auf Ihrem Server (Beispiel: https://myserver.com/crawlbase), um die Daten vom Crawlbase Crawler.

Lesen Sie weiter, um zu erfahren, wie Sie Daten übertragen und empfangen können vom und zum Crawler.

← Antwort Übertragen von Daten an die Crawler →

© 2026 Crawlbase