# Senden Sie Ihre Données an den Forschungsroboter
Bevor Sie mit der Absendung der URL beginnen Crawler, du musst an Bord erstelle eine neue Crawler Hier (ein neues Fenster veröffentlicht) (öffnet neues Fenster).
Um die von Ihnen erkundete URL aufzurufen Crawler, Sie müssen die [Explorations-API]/fr/crawling-api/) mit zwei zusätzlichen Parametern verwenden:
- Sie müssen hinzufügen
&callback=true
- Sie müssen hinzufügen
&crawler=YourCrawlerName
Unter dem Namen des Roboters, den Sie erstellt haben Hier (ein neues Fenster veröffentlicht) (öffnet neues Fenster).
In Antwort auf Ihren Push-Crawler, Die API stellt eine JSON-Darstellung mit einer angeforderten eindeutigen RID-Identifikation dar. Dieses RID ist einzigartig und wir helfen Ihnen, die Anforderung sofort in der Zukunft zu identifizieren.
Beispiel für eine Push-Antwort:
{ "rid": "1e92e8bff32c31c2728714d4" }
Standardmäßig können Sie nur 30 URLs pro Sekunde senden Crawler.
# Begrenzte Dateianzahl für die Erkundungsroboter-Aufgabe
Die vollständige Kombination aller Dateien, die Sie benötigen Crawler Es umfasst 1 Million Seiten. Wenn Sie eine Datei lesen oder alle Dateien lesen möchten, die mehr als 1 Million Seiten umfassen, klicken Sie darauf Crawler Wir sind vorübergehend suspendiert und wir informieren Sie per E-Mail. Le push du Crawler Automatische Wiedergabe von Seiten oder Dateien, die weniger als 1 Million Seiten umfassen.
# Versand von Zusatzleistungen
Alternativ können Sie auch persönliche Têtes für Ihr Abseilen erhalten, wenn Sie diese nutzen callback_headers
Parameter. Dies ist ideal für die Übermittlung zusätzlicher Données an die Enden der Identifizierung an Ihren Küsten.
Das Format ist wie folgt: HEADER-NAME:VALUE|HEADER-NAME2:VALUE2|etc.
Und es gibt noch einen Code zur Korrektur.
Beispiel für die Liebe und den Wert MY-ID 1234, some-other 4321
&callback_headers=MY-ID%3A1234%7Csome-other%3A4321
Diese werden auf Anfrage nach der Veröffentlichung des Webhooks wiederverwendet.