Microsoft Excel ist ein beliebtes Tabellenkalkulationsprogramm für Datenanalyse- und Visualisierungsaufgaben. Es bietet mehrere leistungsstarke Funktionen und Formeln für die Durchführung verschiedener Vorgänge wie Berechnungen, grafische Darstellung und Sortierung.

Neben den herkömmlichen Verwendungsmöglichkeiten ist es auch möglich, Daten von Websites in ein Excel-Programm zu übertragen. Dies ist besonders hilfreich, wenn Sie Daten aus externen Quellen abrufen und in Ihre Excel-Arbeitsumgebung integrieren möchten, ohne das Programm zu verlassen.

Anstatt Daten von Websites zu kopieren und in die Excel-Tabelle einzufügen, können Sie den gesamten Prozess automatisieren und Ihre Genauigkeit und Produktivität steigern.

In diesem Artikel wird erläutert, wie Sie Daten von einer Website automatisch in eine Excel-Tabelle übertragen und in ein strukturiertes Format umwandeln. Wir sprechen auch darüber, wie Sie Scraping-Tools für Excel verwenden können, wie Crawlbase, um den Scraping-Prozess problemlos, schnell und lohnend zu gestalten.

Lassen Sie uns zunächst klären, warum Sie Crawlbase verwenden müssen, wenn Sie Online-Informationen nach Excel extrahieren. Beachten Sie, dass Sie kein Programmierer sein müssen, um Crawlbase für Excel Web Scraping zu verwenden.

Warum Crawlbase für Excel Web Scraping verwenden?

Das Scraping von Online-Daten kann eine Herausforderung sein. Die meisten modernen Websites haben Anti-Scraping-Maßnahmen implementiert, die Crawling-Versuche erschweren. Wenn eine Site beispielsweise eine hohe Anzahl wiederholter Anfragen von derselben IP-Adresse feststellt, kann sie die IP blockieren oder ihren Zugriff einschränken. Dies kann den Scraping-Prozess vereiteln.

Wenn Sie Websitedaten in Excel scrapen, insbesondere wenn Sie es so konfigurieren, dass die abgerufenen Daten automatisch aktualisiert werden, kann es passieren, dass Sie blockiert werden. Wie Sie die Funktion zur automatischen Aktualisierung beim Scrapen dynamischer Websites in Excel verwenden, besprechen wir später in diesem Artikel.

Mit Hilfe von Web-Scraping-Tools Mit Crawlbase können Sie die Daten einer Website schnell und einfach in eine Excel-Tabelle umwandeln. Sie können damit Daten von der Website in großem Umfang in Excel-Spalten extrahieren, ohne die üblichen Probleme beim Extrahieren zu haben.

Hier sind einige Gründe, warum Crawlbase sich hervorragend für Ihre Excel-Web-Scraping-Aufgaben eignet:

  • Einfach zu bedienen: Die Inbetriebnahme von Crawlbase ist auch ohne fortgeschrittene Programmierkenntnisse ganz einfach. Es bietet eine intuitive API, mit der Sie schnell Informationen von Websites abrufen können. Sie können es sowohl für kleine als auch für große Datenextraktionsaufgaben verwenden.
  • Unterstützt erweitertes Scraping Mit Crawlbase müssen Sie sich keine Gedanken mehr darüber machen, Excel zum Abrufen von Daten aus komplizierten Websites zu verwenden. Es unterstützt JavaScript-Rendering, mit dem Sie Inhalte von dynamischen Websites abrufen können, sogar von solchen, die mit modernen Technologien wie React.js oder Angular erstellt wurden.
  • Unterstützt anonymes Crawling Mit Crawlbase können Sie Online-Daten abrufen, ohne sich Sorgen machen zu müssen, dass Ihre wahre Identität preisgegeben wird. Es verfügt über einen großen Pool an Proxys, mit denen Sie anonym bleiben können. Außerdem verfügt es über mehrere Rechenzentren auf der ganzen Welt.
  • Umgehen Sie Kratzhindernisse Mit Crawlbase können Sie die Zugriffsbeschränkungen umgehen, die die meisten Webanwendungen beim Scraping von Daten vorsehen. Sie können damit Blockaden, CAPTCHAs oder andere Hindernisse umgehen, die Sie daran hindern könnten, Daten schnell und effizient abzurufen.
  • Kostenloser Testaccount Crawlbase bietet 1,000 kostenlose Credits zum Testen des Tools. Bevor Sie sich für einen kostenpflichtigen Plan entscheiden, können Sie das kostenlose Konto nutzen, um die Funktionen des Tools auszuprobieren.

So funktioniert Crawlbase

Crawlbase bietet eine einfache Crawling API Damit können Sie Online-Daten effizient und schnell extrahieren. Mit der API ist das Ziehen von Webinhalten in eine Excel-Tabelle ganz einfach, selbst wenn Sie keine Programmierkenntnisse haben.

Die Crawling API Die URL beginnt mit dem folgenden Basisteil:

https://api.crawlbase.com

Sie müssen außerdem die folgenden beiden obligatorischen Abfragezeichenfolgenparameter angeben:

  • Authentifizierungstoken Dies ist ein eindeutiges Token, das Sie zur Verwendung der API autorisiert.
  • URL Dies ist die URL, die Sie zum Scrapen des Inhalts benötigen.

Wenn Sie sich für ein Crawlbase-Konto anmelden, werden Ihnen die folgenden Arten von Authentifizierungstoken zur Verfügung gestellt:

  • Normales Token Dies dient zum Stellen allgemeiner Webanforderungen.
  • JavaScript-Token Dies dient zum Scraping komplexer, dynamischer Websites. Wenn eine Site ihren Inhalt über JavaScript rendert, kann Ihnen die Verwendung dieses Tokens dabei helfen, Daten problemlos zu sammeln.

So fügen Sie Ihrer API-Anfrage das Authentifizierungstoken hinzu:

https://api.crawlbase.com/?token=ADD_TOKEN

Der zweite obligatorische Parameter ist die URL der Zielwebsite. Die URL sollte mit HTTP oder HTTPS beginnen und vollständig codiert sein. Durch die Codierung wird die URL-Zeichenfolge in ein allgemein akzeptiertes Format konvertiert, das allen Webbrowsern bekannt ist. Dies erleichtert die Übertragung der URL über das Internet.

So fügen Sie die URL der Website hinzu, die Sie scrapen möchten:

https://api.crawlbase.com/?token=ADD_TOKEN&url=ADD_URL

Das ist alles, was Sie brauchen, um mit Crawlbase Daten von Websites in Excel zu übertragen. So einfach ist das!

Wenn Sie der obigen Anfrage die erforderlichen Parameterinformationen hinzufügen und sie in der Adressleiste eines Webbrowsers ausführen, wird die API ausgeführt und die vollständige Zielwebseite zurückgegeben.

Sehen wir uns als Nächstes an, wie Sie Excel verwenden können, um die obige API-Anforderung auszuführen.

Verwenden von Crawlbase zum Scrapen von Daten von einer Website nach Excel

Excel bietet eine leistungsstarke Webabfragefunktion, mit der Sie Daten von einer Website in Excel in Spalten übertragen können. Es gibt zwei Hauptmöglichkeiten, die Excel-Webabfragefunktion zu verwenden:

  • Verwendung der von Web Befehl
  • Verwendung der Neue Abfrage Befehl

Sehen wir uns an, wie Sie die Befehle verwenden können, um mit Crawlbase Daten von einer Website zu sammeln.

a) Verwenden des Befehls „Aus dem Web“

So erstellen Sie eine neue Webabfrage mit dem von Web wählen Sie den Befehl Daten-Management und klicken Sie auf das von Web .

Webbefehl

Als nächstes wird Ihnen das Neue Webanfrage Dialogfeld, in das Sie die URL der Webseite eingeben können, deren Daten Sie abrufen möchten.

Webabfrage

In diesem Fall möchten wir Daten extrahieren aus diese Webseite. Und da wir Crawlbase nutzen möchten, um den Scraping-Prozess optimal zu nutzen, beispielsweise von der Anonymität zu profitieren und eventuelle Zugriffssperren zu umgehen, müssen wir, wie bereits besprochen, einige Konfigurationen an der URL vornehmen.

Gehen wir zu unserem Crawlbase-Dashboard und holen Sie sich das JavaScript-Token. Denken Sie daran, dass wir mit dem JavaScript-Token Inhalte aus dynamischen Websites extrahieren können. Sie können Ihr Token erhalten, nachdem Sie sich für ein Konto angemeldet haben.

Lassen Sie uns auch die URL kodieren. Sie können verwenden Dieses kostenlose Tool um die URL zu kodieren.

Nachdem Sie die Konfigurationen vorgenommen haben, sieht die URL folgendermaßen aus:

https://api.crawlbase.com/?token=USER_TOKEN&url=https%3A%2F%2Fwww.timeanddate.com%2Fmoon%2Fphases%2F

Das ist die URL, die wir in die Adressleiste des Neue Webanfrage Klicken Sie anschließend auf das Go .

Nachdem die Webseite in das Dialogfeld geladen wurde, fügt Excel neben den Tabellen oder Daten, die es auf der Seite findet, kleine gelbe Schaltflächen mit Pfeilen nach rechts ein.

Kostenloses Tool

Sie müssen lediglich Ihren Mauszeiger über den Pfeil positionieren, der auf die gewünschten Daten zeigt. Anschließend wird die ausgewählte Tabelle blau umrandet.

Webabfrage

Klicken Sie anschließend auf den Pfeil. Die gesamten Daten der Tabelle werden blau hervorgehoben und der Pfeil verwandelt sich in ein grünes Häkchen.

Webabfrage

Klicken Sie dann auf Import Schaltfläche, um die ausgewählten Daten in ein Excel-Arbeitsblatt zu laden.

Import

Als Nächstes werden Sie von Excel gefragt, wo Sie die importierten Daten ablegen möchten. Wenn Sie die Daten in das vorhandene Arbeitsblatt einfügen möchten, aktivieren Sie das erste Optionsfeld. Andernfalls aktivieren Sie das zweite Optionsfeld, um Excel anzuweisen, die Daten in ein neues Arbeitsblatt einzufügen.

Für dieses Excel-Web-Scraping-Tutorial wählen wir das erste Optionsfeld aus. Klicken Sie dann auf OK .

Daten importieren

Das Herunterladen der externen Daten durch Excel kann einige Augenblicke dauern. Nach Abschluss des Vorgangs sieht die Ausgabe etwa wie folgt aus:

Externe Daten

Es ist so einfach!

Sie können die Daten nun Ihren spezifischen Anforderungen entsprechend gestalten und verfeinern.

b) Verwenden des Befehls „Neue Abfrage“

Sie können auch die Tasten Neue Abfrage Befehl zum Umwandeln der Daten einer Webseite in eine Excel-Tabelle. Dies ist vor allem für Daten im Tabellenformat geeignet.

Um mit diesem Befehl eine neue Webabfrage zu erstellen, wählen Sie das Daten-Management und klicken Sie auf das Neue Abfrage .

Neue Abfrage

Beachten Sie, dass dieser Befehl mehrere Optionen zum Abrufen externer Daten und zum Einfügen in ein Excel-Arbeitsblatt bietet. Wählen wir für dieses Tutorial Aus anderen Quellen und von Web Optionen.

Web andere Quellen

Als nächstes wird Ihnen das von Web Dialogfeld, in das Sie die URL der Webseite eingeben können, deren Daten Sie extrahieren möchten.

von Web

In diesem Fall möchten wir Daten extrahieren aus diese WebseiteUnd genau wie zuvor erklärt, leiten wir die URL durch Crawlbase weiter.

So sieht die URL aus:

https://api.crawlbase.com/?token=USER_TOKEN&url=https%3A%2F%2Fwww.eia.gov%2Fpetroleum%2F

Das ist die URL, die wir in die Adressleiste des von Web Klicken Sie anschließend auf das OK .

Webseiten-URL

Excel versucht nun, über Crawlbase eine anonyme Verbindung zur Zielwebseite herzustellen.

Webseite über Crawlbase

Als nächstes Navigator Es wird ein Fenster mit einer Liste der auf der Zielwebseite verfügbaren Tabellen auf der linken Seite angezeigt.

Navigator

Wenn Sie eine beliebige Tabelle auswählen, wird deren Vorschau auf der rechten Seite angezeigt. Wählen wir die Großhandelspreise für Erdöl …Tabelle.

Grosshandel

Klicken Sie als Nächstes auf Laden Sie Schaltfläche am unteren Rand des Fensters. Beachten Sie, dass es noch weitere Optionen zum Ausführen anderer Aufgaben gibt, z. B. das Klicken auf die Bearbeiten Schaltfläche, um die Daten vor dem Herunterladen zu bearbeiten.

Laden Sie

Nach einem Klick auf die Laden Sie Klicken Sie auf die Schaltfläche, werden die externen Daten in die Excel-Tabelle heruntergeladen. Die Ausgabe sieht ungefähr wie folgt aus:

Product List

Fertig! :)

So aktualisieren Sie Excel-Daten automatisch

Excel ermöglicht es Ihnen, die heruntergeladenen Daten automatisch zu aktualisieren, anstatt den Scraping-Prozess neu zu installieren. Dies ist wichtig, um die abgerufenen Daten auf dem neuesten Stand zu halten, insbesondere wenn es sich um häufig geänderte Daten auf der Zielwebseite handelt.

Wenn Sie jedoch wiederholt eine Website auffordern, ihre Daten abzurufen, bemerkt die Website möglicherweise, dass Ihre Aktionen nicht normal sind, und blockiert Ihren Zugriff auf deren Inhalte. Aus diesem Grund müssen Sie Crawlbase verwenden. Damit können Sie auf Websites wie ein durchschnittlicher und echter Benutzer zugreifen und alle Zugriffsbeschränkungen umgehen.

Um die über das Web abgefragten Daten zu aktualisieren, können Sie einfach auf eine beliebige Zelle der Daten klicken und die Alle aktualisieren Option unter dem Daten-Management Menüband. Klicken Sie dann unter den Dropdown-Optionen auf Alle aktualisieren wenn Sie mehrere Daten aktualisieren möchten oder Inspiration wenn Sie nur einzelne Daten aktualisieren möchten.

Alle aktualisieren

Sie können Excel auch anweisen, die Daten automatisch nach den von Ihnen angegebenen Kriterien zu aktualisieren. Klicken Sie dazu auf das Verbindungseigenschaften… .

Verbindungseigenschaften

Die Verbindungseigenschaften wird ein Dialogfeld angezeigt, in dem Sie steuern können, wie die Scraped-Daten aktualisiert werden. Unter dem Anwendungsbereich können Sie die Hintergrundaktualisierung aktivieren, einen bestimmten Zeitraum für die Aktualisierung festlegen oder andere Optionen auswählen.

Beachten Sie, dass Sie im Dialogfeld auch andere Aufgaben ausführen können, z. B. Ihrer Verbindung eine Beschreibung hinzufügen, die maximale Anzahl abzurufender Datensätze festlegen und vieles mehr.

Nachdem Sie die Aktualisierungskriterien angegeben haben, klicken Sie auf das OK .

Aktualisierungssteuerung

Automatisierung des Data Scraping von Websites nach Excel

Das Extrahieren von Daten aus Websites nach Excel kann eine gewaltige Aufgabe sein, insbesondere wenn es sich um komplexe Webseitenstrukturen oder mehrere Seiten handelt. Scraping-Tools für Excel können zwar einfache Extraktionen durchführen, scheitern jedoch häufig bei komplizierten Designs, was zu manuellem Aufwand beim Einfügen von URLs, Überprüfen und Bereinigen der Daten führt.
Aber keine Angst! Plattformen wie Crawlbase vereinfachen Ihren Prozess mit nur wenigen Klicks. Laden Sie einfach Ihre URL-Liste hoch und lassen Sie Crawlbase die Daten von der Website nach Excel problemlos in Spalten übertragen. So funktioniert es:
Datenextraktion: Mit Crawlbase können Sie Daten von Websites in Excel-Arbeitsblätter übertragen. Sie können Daten von jeder Webseite extrahieren, auch von solchen mit komplexen HTML-Strukturen.
Datenstrukturierung: Keine unübersichtlichen Tabellenkalkulationen mehr! Crawlbase erkennt HTML-Strukturen und formatiert die Daten sauber, wobei Tabellenstrukturen, Schriftarten und mehr erhalten bleiben.
Datenreinigung: Sie haben keine Lust mehr, immer wieder manuell herumzubasteln? Crawlbase kann mithilfe automatisierter Workflows fehlende Datenpunkte schnell verarbeiten, Daten formatieren, Währungssymbole ersetzen und vieles mehr.
Datenexport: Wählen Sie Ihr Ziel! Exportieren Sie die bereinigten Daten in Google Sheets, Excel, CRM-Systeme oder eine andere Datenbank Ihrer Wahl.

Und das Beste daran? Wenn Sie spezielle Anforderungen haben, steht Ihnen unser Team gerne zur Verfügung. Wir arbeiten mit Ihnen zusammen, um automatisierte Workflows einzurichten und sicherzustellen, dass jeder Schritt Ihres Web Scraping-Prozesses reibungslos und effizient abläuft.

Warum also Zeit mit manuellen Aufgaben verschwenden, wenn Crawlbase sie für Sie automatisieren kann? Machen Sie sich das Web Scraping leicht und lassen Sie Crawlbase Ihre Datenextraktion beschleunigen.

Schlussfolgerung

So übertragen Sie Daten von einer Website nach Excel. Mit der Excel-Webabfragefunktion können Sie Daten ganz einfach von Websites herunterladen und in Ihre Tabelle integrieren.

Und wenn Excel mit einem leistungsstarken Tool wie Crawlbase kombiniert wird, können Sie Ihre Datenextraktionsaufgaben produktiv, reibungslos und erfüllend gestalten.

Mit Crawlbase können Sie Informationen in großem Umfang von Websites abrufen und dabei anonym bleiben. Mit diesem Tool vermeiden Sie Zugriffssperren, insbesondere wenn Sie ausgelesene Excel-Daten automatisch aktualisieren.

Klicken Sie hier, um zu erstellen ein kostenloses Crawlbase-Konto.

Viel Spaß beim Schaben!