# Senden Sie Ihre Données an den Forschungsroboter

Bevor Sie mit der Absendung der URL beginnen Crawler, du musst an Bord erstelle eine neue Crawler Hier (ein neues Fenster veröffentlicht) (öffnet neues Fenster).

Um die von Ihnen erkundete URL aufzurufen Crawler, Sie müssen die [Explorations-API]/fr/crawling-api/) mit zwei zusätzlichen Parametern verwenden:

In Antwort auf Ihren Push-Crawler, Die API stellt eine JSON-Darstellung mit einer angeforderten eindeutigen RID-Identifikation dar. Dieses RID ist einzigartig und wir helfen Ihnen, die Anforderung sofort in der Zukunft zu identifizieren.

Beispiel für eine Push-Antwort:

{ "rid": "1e92e8bff32c31c2728714d4" }

Standardmäßig können Sie nur 30 URLs pro Sekunde senden Crawler.

# Begrenzte Dateianzahl für die Erkundungsroboter-Aufgabe

Die vollständige Kombination aller Dateien, die Sie benötigen Crawler Es umfasst 1 Million Seiten. Wenn Sie eine Datei lesen oder alle Dateien lesen möchten, die mehr als 1 Million Seiten umfassen, klicken Sie darauf Crawler Wir sind vorübergehend suspendiert und wir informieren Sie per E-Mail. Le push du Crawler Automatische Wiedergabe von Seiten oder Dateien, die weniger als 1 Million Seiten umfassen.

# Versand von Zusatzleistungen

Alternativ können Sie auch persönliche Têtes für Ihr Abseilen erhalten, wenn Sie diese nutzen callback_headers Parameter. Dies ist ideal für die Übermittlung zusätzlicher Données an die Enden der Identifizierung an Ihren Küsten.

Das Format ist wie folgt: HEADER-NAME:VALUE|HEADER-NAME2:VALUE2|etc. Und es gibt noch einen Code zur Korrektur.

Beispiel für die Liebe und den Wert MY-ID 1234, some-other 4321

&callback_headers=MY-ID%3A1234%7Csome-other%3A4321

Diese werden auf Anfrage nach der Veröffentlichung des Webhooks wiederverwendet.