# Das Smart Proxy in Minuten
Wenn Ihre Anwendung nicht für die Zusammenarbeit mit einer HTTP/S-basierten API zum Crawlen und Scrapen von Websites wie der Crawling APIhaben wir einen intelligenten rotierenden Proxy entwickelt, der Ihre Anfragen an die Crawling API. Sie verwenden es einfach als normalen Proxy in Ihrer Anwendung.
Alle Proxy-Anrufe sollten an eine der folgenden Adressen gehen:
- HTTP:
http://smartproxy.crawlbase.com
am Hafen8012
- HTTPS:
https://smartproxy.crawlbase.com
am Hafen8013
Verwenden Sie Ihr Zugriffstoken als Proxy-Benutzernamen.
Daher ist Ihr erster Anruf so einfach wie das Ausführen einer der folgenden Zeilen im Terminal. Probieren Sie es aus!
Verwenden von HTTP:
curl -x "http://[email protected]:8012" -k "http://httpbin.org/ip"
Verwenden von HTTPS:
curl -x "https://[email protected]:8013" -k "http://httpbin.org/ip"
# Wie funktioniert es?
Wenn Sie eine Anfrage an den Proxy senden, autorisiert der Proxy Ihre Anfrage mit Ihrem Proxy-Autorisierungsbenutzernamen und Ihrem privaten Zugriffstoken unten. Anschließend leitet er Ihre Anfrage an den Crawling API und geben Sie die Antwort dann an Ihre Anwendung zurück. Wenn Sie die zusätzlichen Funktionen des Crawling API In diesem Modus müssen Sie den HTTP-Header senden crawlbaseAPI-Parameters
und senden Sie die Optionen, die Sie verwenden möchten. Im Abschnitt Beispiele unten finden Sie echte Beispiele.
Privater Token
_USER_TOKEN_
# Wichtiger Hinweis
Bei Anfragen über das Smart Proxysollten Sie die SSL-Verifizierung für die Ziel-URLs deaktivieren (mithilfe -k
in curl oder gleichwertige Optionen in anderen Sprachen). Dies ist notwendig, da der Proxy die Anfrage/Antwort prüfen und möglicherweise ändern muss, um seine intelligenten Funktionen bereitzustellen.