# Der Smart Proxy in Minuten

Wenn Ihre Anwendung nicht für die Zusammenarbeit mit einer HTTP/S-basierten API zum Crawlen und Scrapen von Websites wie der Crawling API ausgelegt ist, haben wir einen intelligenten rotierenden Proxy entwickelt, der Ihre Anfragen an die Crawling API weiterleitet. Sie verwenden ihn einfach als normalen Proxy in Ihrer Anwendung.

Alle Proxy-Anrufe sollten an http://smartproxy.crawlbase.com und Hafen 8012 Verwenden Sie Ihr Zugriffstoken als Proxy-Benutzernamen.

Daher ist Ihr erster Anruf so einfach wie das Ausführen der folgenden Zeile im Terminal. Probieren Sie es aus!

curl -x "http://[email protected]:8012" -k "http://httpbin.org/ip"

# Wie funktioniert es?

Wenn Sie eine Anfrage an den Proxy senden, autorisiert der Proxy Ihre Anfrage mit Ihrem Proxy-Autorisierungsbenutzernamen und Ihrem privaten Zugriffstoken unten. Anschließend leitet er Ihre Anfrage an die Crawling-API weiter und gibt die Antwort an Ihre Anwendung zurück. Wenn Sie in diesem Modus die zusätzlichen Funktionen der Crawling-API verwenden möchten, müssen Sie den HTTP-Header senden crawlbaseAPI-Parameters und senden Sie die Optionen, die Sie verwenden möchten. Im Abschnitt Beispiele unten finden Sie echte Beispiele.

Privater Token

_USER_TOKEN_

# Wichtiger Hinweis

Es ist wichtig, die SSL-Verifizierung zu deaktivieren, wenn Sie den Smart Proxy verwenden. Andernfalls können wir unsere Smart AI-Integration mit Ihren Anfragen nicht ausführen. Daher sollten Sie die Überprüfung von Zertifikaten überspringen.