# Das Smart Proxy in Minuten

Wenn Ihre Anwendung nicht für die Zusammenarbeit mit einer HTTP/S-basierten API zum Crawlen und Scrapen von Websites wie der Crawling APIhaben wir einen intelligenten rotierenden Proxy entwickelt, der Ihre Anfragen an die Crawling API. Sie verwenden es einfach als normalen Proxy in Ihrer Anwendung.

Alle Proxy-Anrufe sollten an eine der folgenden Adressen gehen:

  • HTTP: http://smartproxy.crawlbase.com am Hafen 8012
  • HTTPS: https://smartproxy.crawlbase.com am Hafen 8013

Verwenden Sie Ihr Zugriffstoken als Proxy-Benutzernamen.

Daher ist Ihr erster Anruf so einfach wie das Ausführen einer der folgenden Zeilen im Terminal. Probieren Sie es aus!

Verwenden von HTTP:

curl -x "http://[email protected]:8012" -k "http://httpbin.org/ip"

Verwenden von HTTPS:

curl -x "https://[email protected]:8013" -k "http://httpbin.org/ip"

# Wie funktioniert es?

Wenn Sie eine Anfrage an den Proxy senden, autorisiert der Proxy Ihre Anfrage mit Ihrem Proxy-Autorisierungsbenutzernamen und Ihrem privaten Zugriffstoken unten. Anschließend leitet er Ihre Anfrage an den Crawling API und geben Sie die Antwort dann an Ihre Anwendung zurück. Wenn Sie die zusätzlichen Funktionen des Crawling API In diesem Modus müssen Sie den HTTP-Header senden crawlbaseAPI-Parameters und senden Sie die Optionen, die Sie verwenden möchten. Im Abschnitt Beispiele unten finden Sie echte Beispiele.

Privater Token

_USER_TOKEN_

# Wichtiger Hinweis

Bei Anfragen über das Smart Proxysollten Sie die SSL-Verifizierung für die Ziel-URLs deaktivieren (mithilfe -k in curl oder gleichwertige Optionen in anderen Sprachen). Dies ist notwendig, da der Proxy die Anfrage/Antwort prüfen und möglicherweise ändern muss, um seine intelligenten Funktionen bereitzustellen.