# Der Smart Proxy in Minuten
Wenn Ihre Anwendung nicht für die Zusammenarbeit mit einer HTTP/S-basierten API zum Crawlen und Scrapen von Websites wie der Crawling API ausgelegt ist, haben wir einen intelligenten rotierenden Proxy entwickelt, der Ihre Anfragen an die Crawling API weiterleitet. Sie verwenden ihn einfach als normalen Proxy in Ihrer Anwendung.
Alle Proxy-Anrufe sollten an http://smartproxy.crawlbase.com
und Hafen 8012
Verwenden Sie Ihr Zugriffstoken als Proxy-Benutzernamen.
Daher ist Ihr erster Anruf so einfach wie das Ausführen der folgenden Zeile im Terminal. Probieren Sie es aus!
curl -x "http://[email protected]:8012" -k "http://httpbin.org/ip"
# Wie funktioniert es?
Wenn Sie eine Anfrage an den Proxy senden, autorisiert der Proxy Ihre Anfrage mit Ihrem Proxy-Autorisierungsbenutzernamen und Ihrem privaten Zugriffstoken unten. Anschließend leitet er Ihre Anfrage an die Crawling-API weiter und gibt die Antwort an Ihre Anwendung zurück. Wenn Sie in diesem Modus die zusätzlichen Funktionen der Crawling-API verwenden möchten, müssen Sie den HTTP-Header senden crawlbaseAPI-Parameters
und senden Sie die Optionen, die Sie verwenden möchten. Im Abschnitt Beispiele unten finden Sie echte Beispiele.
Privater Token
_USER_TOKEN_
# Wichtiger Hinweis
Es ist wichtig, die SSL-Verifizierung zu deaktivieren, wenn Sie den Smart Proxy verwenden. Andernfalls können wir unsere Smart AI-Integration mit Ihren Anfragen nicht ausführen. Daher sollten Sie die Überprüfung von Zertifikaten überspringen.