Früher war das Aktualisieren von Produktseiten und das Kopieren von Zahlen in Tabellenkalkulationen üblich. Es funktionierte zwar, war aber langsam, chaotisch und man übersah leicht, was wirklich wichtig war. Jetzt haben wir bessere Möglichkeiten. Mit Crawlbase Durch die Extraktion sauberer Produktdaten direkt von Websites und die KI-gestützte Sortierung des Datenrauschens wird das Monitoring deutlich präziser. Es entwickelt sich zu einem System, das plötzliche Preisschwankungen erkennen, Sie bei sinkenden Lagerbeständen warnen und sogar Trends erkennen kann, bevor sie offensichtlich sind. Kurz gesagt: Sie können Produkttrends jetzt mithilfe von Web Scraping erkennen, anstatt zu raten.
Deshalb erstellen wir in diesem Handbuch ein Tool, das eher einem digitalen Analysten ähnelt, der mit Ihnen zusammenarbeitet.
Inhaltsverzeichnis
- Der Workflow des AI Product Monitoring Tools
- Voraussetzungen:
- Einrichten der Werkzeuge
- Produktdaten abrufen
- Analysieren Sie Daten mit Perplexity AI
- So erstellen Sie einen KI-Analysebericht
- Automatisieren und planen Sie KI-Berichte
- Visualisierung von KI-Ergebnissen
- Fazit
- Häufig gestellte Fragen (FAQ)
Der Workflow des AI Product Monitoring Tools
Stellen Sie sich das System, das wir bauen werden, als Relais vor. Crawlbase greift auf Produktseiten von Anbietern wie Amazon, eBay oder anderen Onlineshops zu. Diese Informationen werden dann so gekürzt, dass nur die nützlichen Informationen wie Preis, Produktname und Lagerbestand übrig bleiben. Nach der Bereinigung werden die Daten an Perplexity AI weitergeleitet, das sie analysiert und Dinge erkennt, die übersehen werden könnten: einen plötzlichen Preisanstieg, einen langsam zur Neige gehenden Lagerbestand oder einen sich abzeichnenden Trend.
Abschließend werden diese Erkenntnisse zusammengestellt und als Bericht oder Warnmeldung übermittelt, sodass entsprechende Maßnahmen ergriffen werden können.

Voraussetzungen:
Es ist hilfreich, ein paar Dinge vorbereitet zu haben, bevor man mit dem Bau beginnt. Sie müssen kein Experte sein, aber ein wenig Vorarbeit ist sehr hilfreich.
Mitzubringende Fähigkeiten
- Grundlagen Python Fähigkeiten: In der Lage sein, Skripte zu lesen, Funktionen zu optimieren und sie auszuführen, ohne den Überblick zu verlieren.
- Einige Kenntnisse im Umgang mit REST-APIs: Sie sollten mit dem Senden von Anfragen und dem Überprüfen von Antworten vertraut sein.
- Eine grobe Vorstellung davon, wie KI-Modelle reagieren, wenn Sie ihnen strukturierte Eingabeaufforderungen geben.
Tools zum Erstellen einer KI-Produktüberwachungslösung
- A Crawlbase Konto bei Ihrem Crawling API Token
- Ein API-Schlüssel von Perplexity AI.
- Ein lokaler Computer mit installiertem Python.
Sobald diese vorhanden sind, können wir mit der Erstellung der Skripte zum Extrahieren von Produktdaten beginnen, diese durch KI laufen lassen und das System Veränderungen und Muster für Sie erkennen lassen.
Einrichten der Werkzeuge
Nun bereiten wir die Umgebung vor. Wir richten ein Crawlbase zum Scraping und Perplexity AI zur Analyse.
Crawlbase Einrichtung
- Erstelle ein Konto bei Crawlbase und logge dich ein.
- Kopieren Sie Ihre Crawling API Normales Anforderungstoken. Dies ist die, die wir im Skript verwenden werden.
- Neue Konten beinhalten 1,000 kostenlose Anfragen. Wenn Sie Rechnungsdetails hinzufügen Bevor Sie sie verwenden, schalten Sie zusätzliche 9,000 kostenlose Credits frei.
Perplexity AI-Setup
Verwirrung bietet eine OpenAI-kompatible API, die die Integration vereinfacht.
- Holen Sie sich Ihren API-Schlüssel von der Perplexity-Konto-Dashboard.
- Konfigurieren Sie den Client in Ihrem Python-Code wie folgt:
1 | importieren öffnen |
Halten Sie Ihren Schlüssel geheim. Übertragen Sie es nicht auf GitHub und teilen Sie es nicht in öffentlichen Repos.
Schritt 1: Produktdaten abrufen
Bevor wir etwas verfolgen können, müssen wir Produktinformationen von der Website eines Shops extrahieren. Das ist im Grunde das erste Puzzleteil. Kopieren Sie zunächst das folgende Skript. Speichern Sie es unter crawling.py und wir werden später darauf aufbauen.
1 | von Anfragen.Ausnahmen importieren RequestException |
Stellen Sie sicher, dass Sie den Platzhalter ersetzen <Crawlbase Normal requests token> mit Ihrem tatsächlichen Crawlbase Token
Schritt 2: Daten mit Perplexity AI analysieren
Zahlen allein sind nicht viel wert, wenn wir sie nicht verstehen. Hier kommt Perplexity ins Spiel. Wir fügen eine Funktion hinzu, die die Produktdatensätze abruft, eine schnelle Überprüfung durchführt, um sicherzustellen, dass alles in Ordnung ist, und dann nützliche Statistiken wie Gesamtzahl der Datensätze, früheste und späteste Daten, Preisspannen und sogar Abweichungen anzeigt.
Erstellen Sie eine neue Datei mit dem Namen perplexity_ai.py und fügen Sie das Skript dort ein.
1 | importieren JSON |
Dieses Skript wandelt Rohdaten zu Produktpreisen in einen strukturierten Datensatz um, fordert ein KI-Modell auf, diese auf Anomalien, Trends und Muster zu analysieren, und gibt diese Erkenntnisse dann in JSON zurück, wobei Fehler sicher behandelt werden.
Beachten Sie, dass die Eingabeaufforderung nicht festgelegt ist. Sie können mit der Formulierung experimentieren, sie kürzen oder sogar nach verschiedenen Perspektiven fragen, je nachdem, was Sie erreichen möchten. Sie müssen lediglich den Text im Code anpassen, und die KI passt ihre Antwort entsprechend an.
Schritt 3: So erstellen Sie einen KI-Analysebericht
Bevor wir den Code ausführen können, benötigen wir für diesen Blog einige Testdaten. Sie können die folgenden Schritte ausführen:
- Holen Sie sich das Beispielskript von der GitHub-Repository und speichern Sie es als
dummy_data.pyum die Datenbank zu füllen. - Führen Sie das Skript aus, indem Sie Folgendes ausführen:
1 | python dummy_data.py |
Dadurch sollten Datensätze wie folgt in Ihre Datenbank eingefügt werden:

- Nachdem die Dummy-Daten eingefügt wurden, kopieren Sie das folgende Skript und speichern Sie es als
price_monitoring.py
1 | von Datenbank importieren Abfrageprodukte; |
Wenn alles an seinem Platz ist, führen Sie den Code aus:
1 | python price_monitoring.py |
Hier ist die Beispielausgabe von Perplexity AI:

Schritt 4: KI-Berichte automatisieren und planen
Für die Demo haben wir es mit einem kleinen Skript namens schedule.py (Sie finden es im GitHub Repo). Es ist so eingerichtet, dass es einmal täglich um 10:00 Uhr ausgeführt wird. Um es manuell zu starten, führen Sie einfach Folgendes aus:
1 | Python-Zeitplan.py |
Wenn Sie ein System wünschen, das im Alltag zuverlässig läuft, sollten Sie den systemeigenen Scheduler verwenden. Unter Linux bedeutet das normalerweise die Einrichtung eines cron-Job. Unter Windows würden Sie wahrscheinlich mit Taskplaner.
Schritt 5: Visualisierung der KI-Ergebnisse
Das Heraussuchen der Preise ist nur die halbe Miete. Schwieriger ist es, herauszufinden, was die Preise im Gesamtbild tatsächlich aussagen. Hier können ein paar visuelle Elemente die Arbeit deutlich erleichtern.
Wenn Sie etwas Elegantes und Interaktives wünschen, ist ein leichtes Dashboard mit Plotly oder Bokeh genau das Richtige. Sie erhalten Diagramme, über die Sie mit der Maus fahren, hineinzoomen und sie direkt in eine Webseite einfügen können.
Alternativ, wenn Sie es schneller wollen, verwenden Sie Matplotlib or Seegeboren. Es gibt sie schon ewig, sie sind unendlich flexibel und Sie können sie so stylen, dass sie zu dem Look passen, den Sie anstreben.
Wenn Sie keine Lust haben, lange auf Zahlen oder Balken zu starren, können Sie sich sogar auf KI verlassen. Dienste wie Perplexity erstellen kurze, verständliche Zusammenfassungen Ihres Datensatzes. So müssen Sie sich nicht durch eine Wand aus Werten wühlen, sondern erhalten direkt neben Ihren visuellen Darstellungen ein paar klare, wichtige Erkenntnisse.
Fazit
Das Scraping einer Seite ist nur der Ausgangspunkt. Sobald Sie Crawlbase Zusammen mit Python und ein wenig KI wird der gesamte Prozess zu etwas viel Größerem: Sie sammeln nicht nur Daten, sondern formen sie zu Erkenntnissen um, auf deren Grundlage Sie handeln können.
Wenn Sie neugierig sind, wie das in der realen Welt aussieht, lohnt es sich, es an Ihren Konkurrenten zu testen. Mit Crawlbase Durch die Bewältigung der Komplexität können Sie die benötigten Daten abrufen und die KI auf die Marktveränderungen hinweisen lassen, bevor es jemand anderes bemerkt. ABSICHT Crawlbase heute mal einen Versuch und verschaffen Sie sich einen Schritt Vorsprung.
Häufig gestellte Fragen (FAQ)
F: Was passiert, wenn meine Anfragen immer wieder blockiert werden?
A. Eine Blockierung ist eine der größten Hürden beim Web Scraping. Mit CrawlbaseDies geschieht automatisch durch rotierende IP-Adressen und neue Benutzeragenten. Jede Anfrage sieht einzigartig aus, genau wie ein echter Besucher, wodurch Ihr Crawling am Laufen bleibt und Ihre Erfolgsquote hoch ist.
F: Was passiert, wenn eine Website ihr Layout oder ihre Datenstruktur ändert?
A. Websites entwickeln sich weiter; Layouts und HTML-Strukturen werden häufig aktualisiert. In diesem Fall funktionieren Ihre vorhandenen Selektoren möglicherweise nicht mehr. Die Lösung ist in der Regel schnell gefunden: Passen Sie Ihre Selektoren an die neue Struktur an. Denn Crawlbase gibt immer das vollständige HTML zurück. Sie müssen Ihren Crawler nicht von Grund auf neu erstellen. Optimieren Sie einfach die Analyselogik.
F: Können KI-Modelle bei der Analyse von Scraped-Daten „halluzinieren“?
A. Manchmal generiert KI Antworten, die zwar gut lesbar sind, aber nicht mit den zugrunde liegenden Daten übereinstimmen. Dies lässt sich am besten vermeiden, indem Sie dem Modell klare, strukturierte Anweisungen geben und freie Kreativität einschränken. Eingabeaufforderungen, die bestimmte Ergebnisse wie eine Zusammenfassung oder eine Tabelle erfordern, sorgen in der Regel dafür, dass die KI mit Ihrem tatsächlichen Datensatz übereinstimmt.











