Monster.com ist eine der Top-Sites für Arbeitssuchende und Arbeitgeber mit Millionen von Stellenangeboten in den verschiedensten Branchen. Es ist ein großartiger Ort für Arbeitssuchende und Arbeitgeber, die Mitarbeiter suchen. Durch das Scraping von Monster.com können Sie Unmengen an Jobdaten erhalten, die Sie für Analysen, zur Überwachung des Arbeitsmarkts oder zum Erstellen eines benutzerdefinierten Tools für die Jobsuche verwenden können.
Monster.com zieht mehr als 6.7 Millionen Besucher monatlich und beherbergt Tausende von aktiven Stellenangeboten, was es zu einer Goldmine an hilfreichen Informationen macht. Doch seine ständige Veränderung bedeutet, dass Sie eine intelligente Strategie brauchen, um Monster.com zu scrapen. Dieser Leitfaden zeigt Ihnen, wie Sie eine Python-Umgebung einrichten, einen Monster.com-Seiten-Scraper erstellen und ihn mit dem Crawlbase Crawling API. Diese API hilft bei der Bewältigung kniffliger Dinge wie JavaScript-Rendering und Seitennummerierung mit endlosem Scrollen.
Dieser Leitfaden vermittelt Ihnen das Wissen und die Tools, die Sie benötigen, um Monster.com problemlos zu scrapen. Lassen Sie uns anfangen!
Durch das Scraping von Monster.com erhalten Sie Zugriff auf eine riesige Menge an Daten zum Arbeitsmarkt und erhalten wichtige Erkenntnisse, die manuell nur schwer zu erfassen sind. Durch die Automatisierung der Erfassung von Stellenangeboten können Sie Informationen wie Berufsbezeichnungen, Standorte, Gehälter, Firmennamen und Stellenbeschreibungen erhalten. Diese Daten sind der Schlüssel zum Verständnis aktueller Markttrends und zum Treffen faktenbasierter Entscheidungen.
Sie sind vielleicht ein Personalvermittler, der sich Stellenangebote der Konkurrenz ansehen möchte, ein Datenanalyst, der sich mit Jobtrends beschäftigt, oder ein Arbeitssuchender, der branchenübergreifende Veränderungen verfolgen möchte. In diesem Fall ist Monster.com eine großartige Quelle. Mit Millionen von Stellenangeboten ist die Plattform perfekt für alle, die aktuelle und detaillierte Stellendaten benötigen.
Die automatische Datenerfassung spart Zeit und liefert zuverlässige, korrekte Informationen. Anstatt die Daten manuell durchzusehen und zu beschaffen, können Sie sich darauf konzentrieren, sie zu verstehen. Auf diese Weise können Sie nützliche Dinge wie Jobfinder, Trendtracker oder Möglichkeiten zum Vergleichen von Gehältern erstellen.
Wichtige Datenpunkte zum Extrahieren von Monster.com
Wenn Sie Daten von Monster.com abrufen, sollten Sie sich auf die wichtigsten Informationen konzentrieren, die Ihnen nützliche Erkenntnisse liefern. Folgendes müssen Sie sich besorgen:
Stellenbezeichnung: Hier erfahren Sie, welche Jobs derzeit offen sind.
Stellenbeschreibung: Dies fasst den Job zusammen und umfasst Aufgaben, erforderliche Fähigkeiten, erforderliche Berufserfahrung und etwaige Vergünstigungen.
Firmenname: Identifiziert die Arbeitgeber, die die Stellen anbieten.
Über das Unternehmen: Dies gibt einen kurzen Überblick über die Geschichte und Ziele des Unternehmens.
Unternehmenswebseite: Die Hauptwebseite des Unternehmens.
Firmengröße: Hier erfahren Sie, wie groß das Unternehmen ist, beispielsweise wie viele Mitarbeiter dort arbeiten.
Gründungsjahr: Das Jahr der Unternehmensgründung.
Standort: Zeigt, wo die Stelle angesiedelt ist, und erleichtert so das Filtern der Stellen nach Region.
Gehaltsinformationen: Wenn es dort steht, wissen Sie, mit welcher Bezahlung Sie rechnen können.
Datum der Stellenausschreibung: So können Sie erkennen, wie neu die Stellenanzeigen sind.
Anstellungsart: Ob es sich um eine Vollzeit-, Teilzeit-, Vertragsstelle usw. handelt.
Anwendungslink: Hier gelangen Sie direkt zur Seite, wo Sie sich für die Stelle bewerben können.
Branche: Dies zeigt, in welchem Bereich der Job angesiedelt ist, z. B. Technik, Gesundheitswesen oder Geld.
Erforderliche Fähigkeiten: Für die Rolle erforderliche Fähigkeiten.
Job-ID: Eine eindeutige Kennung für jede Stellenausschreibung, nützlich zum Verfolgen und Aktualisieren von Angeboten.
Wenn Sie vor dem Start Ihres Monster.com-Scrapers eine klare Vorstellung davon haben, was Sie extrahieren möchten, können Sie konzentriert bleiben und sicherstellen, dass Ihr Scraper aussagekräftige Daten sammelt.
Crawlbase Crawling API für Monster.com Scraping
Beim Scraping von Monster.com kann die Handhabung von JavaScript-gerenderten Inhalten und die Navigation auf dynamischen Seiten mit einfachen Scraping-Techniken eine Herausforderung darstellen. Hier kommt der Crawlbase Crawling API ist praktisch. Dieses Tool hilft bei der Verwaltung dieser Komplexitäten, indem es JavaScript rendert und die Paginierung effizient handhabt.
Warum Crawlbase verwenden? Crawling API?
Monster.com verwendet JavaScript, um Stellenausschreibungen und andere wichtige Inhalte dynamisch zu laden. Die altmodischen Scraping-Methoden, die nur statisches HTML herunterladen, greifen nicht auf solche Inhalte zu. Die Crawlbase Crawling API umgeht diese Einschränkungen, indem es einen echten Browser nachahmt und so das Laden und Verfügbarmachen aller mit JavaScript gerenderten Komponenten ermöglicht.
Monster.com verwendet JavaScript, um Stellenangebote und andere Inhalte dynamisch zu laden. Traditionelle Scraping-Methoden, die nur statisches HTML abrufen, können diese Inhalte häufig nicht erfassen. Crawlbase Crawling API überwindet diese Einschränkungen, indem es einen echten Browser simuliert und sicherstellt, dass alle mit JavaScript gerenderten Elemente geladen und zugänglich sind.
Hauptfunktionen von Crawlbase Crawling API
JavaScript-Rendering: Crawlbase kann die Ausführung von JavaScript auf der Seite handhaben, sodass Sie dynamisch geladene Daten scrapen können.
Vermeiden Sie IP-Blockierungen und CAPTCHAs: Crawlbase rotiert automatisch IPs und umgeht CAPTCHAs, wodurch ein unterbrechungsfreies Scraping von Monster.com ohne IP-Blockierungen oder CAPTCHA-Herausforderungen möglich ist.
Umgang mit Paginierung: Die API ermöglicht alle Arten von Paging-Methoden, einschließlich des „unendlichen Scrollens“, das auf Jobbörsen wie Monster zu finden ist.
Anfrageoptionen: Passen Sie Ihre Scraping-Anfragen mit Optionen zur Cookie-Verarbeitung, zum Festlegen von Benutzeragenten und mehr an, um Ihre Scraping-Bemühungen robuster und zuverlässiger zu machen.
Crawlbase Python-Bibliothek
Crawlbase verfügt über eine Python-Bibliothek, die das Web Scraping erheblich vereinfacht. Diese Bibliothek erfordert zur Authentifizierung ein Zugriffstoken. Dieses Token erhalten Sie, indem Sie ein Konto bei Crawlbase registrieren.
Hier ist eine Beispielfunktion, die die Verwendung der Crawlbase demonstriert Crawling API um Anfragen zu senden:
1 2 3 4 5 6 7 8 9 10 11 12 13 14
für Crawlbase importieren CrawlingAPI
# Initialisieren Sie die Crawlbase-API mit Ihrem Zugriffstoken crawling_api = CrawlingAPI({ 'Zeichen': 'IHR_CRAWLBASE_TOKEN' })
if Antwort['Kopfzeilen']['pc_status'] == '200': html_content = Antwort['Körper'].dekodieren('utf-8') Rückkehr HTML-Inhalt sonst: drucken(f"Seite konnte nicht abgerufen werden. Crawlbase-Statuscode: {Antwort['Kopfzeilen']['pc_status']}") RückkehrKeine
Note: Crawlbase bietet zwei Arten von Token an: _ Normales Token für statische Sites. _ JavaScript (JS)-Token für dynamische oder browserbasierte Anfragen.
Zum Scraping dynamischer Websites wie Monster.com benötigen Sie das JS-Token. Crawlbase bietet Ihnen 1,000 kostenlose Anfragen, damit Sie loslegen können. Für diese Testversion ist keine Kreditkarte erforderlich. Weitere Einzelheiten finden Sie unter Crawlbase Crawling API Dokumentation.
Im nächsten Abschnitt führen wir Sie durch die Einrichtung einer Python-Umgebung für dieses Projekt. Beginnen wir mit der Einrichtung!
Einrichten Ihrer Python-Umgebung
Wir müssen Ihre Python-Umgebung einrichten, bevor wir den Monster.com-Scraper erstellen. Dieser Abschnitt behandelt die Grundlagen: Installieren von Python und Bibliotheken, Einrichten einer virtuellen Umgebung und Auswählen einer IDE.
Python installieren
Stellen Sie zunächst sicher, dass Python auf Ihrem Computer installiert ist. Python ist eine sehr flexible Sprache, die für viele Dinge verwendet wird, darunter auch Web Scraping. Sie können es von der herunterladen offizielle Python-Website. Befolgen Sie die Installationsanweisungen für Ihr Betriebssystem.
Einrichten einer virtuellen Umgebung
Eine virtuelle Umgebung erleichtert die Verwaltung von Projektabhängigkeiten, ohne andere Python-Projekte zu beeinträchtigen. So richten Sie eine solche Umgebung ein:
Erstellen Sie eine virtuelle Umgebung: Navigieren Sie im Terminal zu Ihrem Projektverzeichnis und führen Sie Folgendes aus:
1
python -m venv monster_env
Aktivieren der virtuellen Umgebung:
Unter Windows:
1
monster_env\Scripts\aktivieren
Unter macOS/Linux:
1
Quelle monster_env/bin/activate
Erforderliche Bibliotheken installieren
Nachdem die virtuelle Umgebung aktiviert wurde, müssen Sie einige Bibliotheken installieren, die Sie beim Web Scraping und der Datenverarbeitung unterstützen.
Crawlbase: Die Hauptbibliothek zum Senden von Anfragen mit der Crawlbase Crawling API.
SchöneSoup4: Zum Parsen von HTML- und XML-Dokumenten.
Pandas: Zur Handhabung und Analyse von Daten.
Sie können diese Bibliotheken mit pip installieren. Öffnen Sie Ihr Terminal oder Ihre Eingabeaufforderung und führen Sie Folgendes aus:
1
pip installieren crawlbase beautifulsoup4 pandas
Auswahl der richtigen IDE
Eine integrierte Entwicklungsumgebung (IDE) erleichtert das Programmieren, indem sie nützliche Funktionen wie Syntaxhervorhebung, Debugging-Tools und Projektmanagement bietet. Hier sind einige beliebte IDEs für die Python-Entwicklung:
PyCharm: Eine professionelle IDE für Python mit vielen wirklich coolen Funktionen.
Visual Studio-Code (VS-Code): Ein schöner, leichter Editor für den allgemeinen Gebrauch mit guter Python-Unterstützung über Plug-ins.
Jupyter Notizbuch: Gut für interaktive Codierung und Datenanalyse, insbesondere wenn Sie die Daten visualisieren müssen.
Wählen Sie eine IDE, die Ihren Vorlieben und Ihrem Arbeitsablauf entspricht, um Ihr Codierungserlebnis zu optimieren.
Nachdem wir nun Python installiert, Bibliotheken heruntergeladen und die Entwicklungsumgebung konfiguriert haben, können wir mit der nächsten Phase des Schreibens des Monster.com-Seiten-Scrapers fortfahren.
Scraping von Stellenangeboten auf Monster.com
Beginnen wir mit dem Web Scraping von Monster.com-Stellenangeboten mit Python. Da Monster.com dynamisches Laden von Inhalten und scrollbasierte Paginierung verwendet, reichen einfache Scraping-Methoden nicht aus. Wir verwenden Crawlbases Crawling API um uns um das JavaScript-Rendering und die Scroll-Paginierung zu kümmern, damit wir möglichst viele Stellenausschreibungen herausfiltern.
Überprüfung der Stellenangebotsseite von Monster.com
Als Erstes sollten Sie die HTML-Struktur der Stellenausschreibungsseite untersuchen, bevor Sie sich in den Code stürzen. Wenn wir die Hierarchie kennen, können wir die richtigen CSS-Selektoren finden, um Stelleninformationen wie Stellenbezeichnung, Unternehmen, Standort und Stellen-URL abzurufen.
Besuchen Sie die URL: Öffnen Sie Monster.com und navigieren Sie zu einer Seite mit Stellenangeboten.
Öffnen Sie die Entwicklertools: Klicken Sie mit der rechten Maustaste irgendwo auf die Seite und wählen Sie „Untersuchen“, um die Entwicklertools zu öffnen.
Identifizieren Sie Schlüsselelemente: Stellenangebote finden Sie in der Regel in <article> Elemente mit dem Attribut data-testid="svx_jobCard" in einem <div> mit der ID JobCardGrid. Zu den wichtigsten Elementen gehören:
Stellenbezeichnung: Gefunden in einem <a> Tag mit dem Attribut data-testid="jobTitle".
Firmenname: Gefunden in einem <span> Tag mit dem Attribut data-testid="company".
Lage: Befindet sich in einem <span> Tag mit dem Attribut data-testid="jobDetailLocation".
Job-Link: Gefunden in der href Attribut der Berufsbezeichnung <a> tag mit data-testid="jobTitle".
Schreiben des Monster.com Listing Scrapers
Schreiben wir nun den Scraper, um Jobdetails von Monster.com zu extrahieren. Wir verwenden die Crawlbase Crawling API, was die Handhabung dynamischer Inhalte vereinfacht.
alle_jobs = []
für Job in Jobkarten: Titel = Job.Wählen Sie einen aus('a[data-testid="Berufsbezeichnung"]').text.strip() if Job.Wählen Sie einen aus('a[data-testid="Berufsbezeichnung"]') sonst'' Firma = Job.Wählen Sie einen aus('span[data-testid="Unternehmen"]').text.strip() if Job.Wählen Sie einen aus('span[data-testid="Unternehmen"]') sonst'' Standort = Job.Wählen Sie einen aus('span[data-testid="jobDetailLocation"]').text.strip() if Job.Wählen Sie einen aus('span[data-testid="jobDetailLocation"]') sonst'' Link = Job.Wählen Sie einen aus('a[data-testid="Berufsbezeichnung"]')['href'] if Job.Wählen Sie einen aus('a[data-testid="Berufsbezeichnung"]') sonst''
Rückkehr Stellenangebote sonst: drucken(f"Daten konnten nicht abgerufen werden. Statuscode: {Antwort['Kopfzeilen']['pc_status']}") RückkehrKeine
Die options Parameter umfasst Einstellungen wie ajax_wait zur Handhabung des asynchronen Ladens von Inhalten und page_wait 5 Sekunden zu warten, bevor Sie scrapen, damit alle Elemente richtig geladen werden. Sie können über Crawlbase lesen Crawling API Parameter HIER.
Umgang mit der Scroll-Paginierung
Monster.com verwendet scrollbasierte Paginierung, um mehr Stellenangebote dynamisch zu laden. Um alle Stellenangebote zu erfassen, verwenden wir die scroll und scroll_interval von Crawlbase bereitgestellte Parameter Crawling API.
scrollen=wahr: Aktiviert die scrollbasierte Paginierung.
Scrollintervall = 60: Legt die Scrolldauer auf 60 Sekunden fest, was die maximal zulässige Zeit ist. Da wir Zeit zum Scrollen hinzugefügt haben, ist es nicht erforderlich, explizit festzulegen page_wait.
alle_jobs = []
für Job in Jobkarten: Titel = Job.Wählen Sie einen aus('a[data-testid="Berufsbezeichnung"]').text.strip() if Job.Wählen Sie einen aus('a[data-testid="Berufsbezeichnung"]') sonst'' Firma = Job.Wählen Sie einen aus('span[data-testid="Unternehmen"]').text.strip() if Job.Wählen Sie einen aus('span[data-testid="Unternehmen"]') sonst'' Standort = Job.Wählen Sie einen aus('span[data-testid="jobDetailLocation"]').text.strip() if Job.Wählen Sie einen aus('span[data-testid="jobDetailLocation"]') sonst'' Link = Job.Wählen Sie einen aus('a[data-testid="Berufsbezeichnung"]')['href'] if Job.Wählen Sie einen aus('a[data-testid="Berufsbezeichnung"]') sonst''
alle_jobs = []
für Job in Jobkarten: Titel = Job.Wählen Sie einen aus('a[data-testid="Berufsbezeichnung"]').text.strip() if Job.Wählen Sie einen aus('a[data-testid="Berufsbezeichnung"]') sonst'' Firma = Job.Wählen Sie einen aus('span[data-testid="Unternehmen"]').text.strip() if Job.Wählen Sie einen aus('span[data-testid="Unternehmen"]') sonst'' Standort = Job.Wählen Sie einen aus('span[data-testid="jobDetailLocation"]').text.strip() if Job.Wählen Sie einen aus('span[data-testid="jobDetailLocation"]') sonst'' Link = Job.Wählen Sie einen aus('a[data-testid="Berufsbezeichnung"]')['href'] if Job.Wählen Sie einen aus('a[data-testid="Berufsbezeichnung"]') sonst''
Rückkehr alle_jobs sonst: drucken(f"Daten konnten nicht abgerufen werden. Statuscode: {Antwort['Kopfzeilen']['pc_status']}") RückkehrKeine
defin JSON speichern(Daten, Dateiname='monster_jobs.json'): mitXNUMXh geöffnet(Dateiname, 'w') as Datei: json.dump(Daten, Datei, Einzug=4) drucken(f"Daten gespeichert in {Dateiname}")
if __name__ == "__hauptsächlich__": Basis-URL = „https://www.monster.com/jobs/search?q=Java+Developers&where=New+York&page=1&so=pslh“ jobs = scrape_monster_mit_pagination(Basis-URL)
if Arbeitsplätze: save_to_json(Jobs)
Dieser Code zeigt Ihnen, wie Sie den Scraper einrichten, die Scroll-Paginierung handhaben und die Daten in einem strukturierten JSON-Format speichern, sodass Sie die gescrapten Daten später problemlos verwenden können.
[ { "Berufsbezeichnung":„Java-Entwickler (Core Java)“, "Unternehmen":„Georgia IT Inc.“, "Standort":"New York, NY", "Job-Link":"https://www.monster.com/job-openings/java-developer-core-java-new-york-ny--1abe38e2-8183-43d3-a152-ecdf208db3bf?sid=3a00f5d1-d543-4de0-ab00-0f9e9c8079f8&jvo=m.mo.s-svr.1&so=p.s.lh&hidesmr=1" }, { "Berufsbezeichnung":„Java-Backend-Entwickler (Java, Spring, Microservices, Maven)“, "Unternehmen":"Vielfältiger Luchs", "Standort":"Manhattan, New York", "Job-Link":"https://www.monster.com/job-openings/java-backend-developer-java-spring-microservices-maven-manhattan-ny--7228b274-60bb-41d7-b8d9-8a51ff8c8d1c?sid=3a00f5d1-d543-4de0-ab00-0f9e9c8079f8&jvo=m.mo.s-svr.2&so=p.s.lh&hidesmr=1" }, { "Berufsbezeichnung":„Java-Backend-Entwickler (Java, Spring, Microservices, Maven)“, "Unternehmen":„Vielfältige Linx“, "Standort":"Manhattan, New York", "Job-Link":"https://www.monster.com/job-openings/java-backend-developer-java-spring-microservices-maven-manhattan-ny--2d652118-1c17-43e3-8cef-7b940a8b0490?sid=3a00f5d1-d543-4de0-ab00-0f9e9c8079f8&jvo=m.mo.s-svr.3&so=p.s.lh&hidesmr=1" }, { "Berufsbezeichnung":„JAVA FULL STACK-ENTWICKLER“, "Unternehmen":„HexaQuEST Global“, "Standort":„Brooklyn, New York“, "Job-Link":"https://www.monster.com/job-openings/java-full-stack-developer-brooklyn-ny--c60fb5f3-5adf-43a7-bfac-03c93853dd4e?sid=3a00f5d1-d543-4de0-ab00-0f9e9c8079f8&jvo=m.mo.s-svr.4&so=p.s.lh&hidesmr=1" }, .... mehr ]
Scraping von Monster.com-Stellenseiten
Nachdem Sie Stellenangebote von Monster.com gesammelt haben, besteht der nächste Schritt darin, detaillierte Informationen von jeder Stellenseite zu extrahieren. In diesem Abschnitt zeigen wir Ihnen, wie Sie spezifische Details wie Stellenbeschreibungen, Anforderungen und Unternehmensinformationen aus den Stellenseiten extrahieren.
Überprüfung der Jobseite von Monster.com
Um mit dem Scraping einer Jobseite zu beginnen, müssen Sie deren HTML-Struktur untersuchen, um die Elemente zu identifizieren, die die benötigten Daten enthalten. So können Sie das tun:
Besuchen Sie eine Jobseite: Klicken Sie auf eine Stellenanzeige, um die Detailseite zu öffnen.
Öffnen Sie den Entwickler Tools: Klicken Sie mit der rechten Maustaste auf die Seite und wählen Sie „Untersuchen“, um die Entwicklertools zu öffnen.
Identifizieren Sie Schlüsselelemente: Suchen Sie nach Elementen, die Informationen enthalten wie:
Stellenbezeichnung: Gefunden in einem <h2> Tag mit dem Attribut data-testid="jobTitle".
Stellenbeschreibung: Normalerweise innerhalb eines <div> Tag mit dem Attribut data-testid="svx-description-container-inner".
Zahlen & Fakten: Normalerweise in einer Tabellenzeile zu finden (<tr>) innerhalb einer Tabelle mit dem Attribut data-testid="svx-jobview-details-table".
Über unser: Befindet sich in einem <div> Tag mit einer Klasse, die enthält "about-styles__AboutCompanyContainerInner".
Schreiben des Monster.com Job Page Scrapers
Sobald Sie die Struktur kennen, können Sie einen Scraper erstellen, um diese Details zu extrahieren. Die Crawlbase Crawling API hilft bei der Handhabung dynamischer Inhalte und gewährleistet gleichzeitig einen reibungslosen Scraping-Prozess.
Rückkehr job_details sonst: drucken(f"Daten konnten nicht abgerufen werden. Statuscode: {Antwort['Kopfzeilen']['pc_status']}") RückkehrKeine
Speichern von Daten in einer JSON-Datei
Sobald die Auftragsdetails extrahiert sind, können Sie die Daten für einen einfacheren Zugriff und eine einfachere Analyse in einer JSON-Datei speichern:
1 2 3 4
defJobdetails als JSON speichern(Daten, Dateiname='job_details.json'): mitXNUMXh geöffnet(Dateiname, 'w') as Datei: json.dump(Daten, Datei, Einzug=4) drucken(f"Daten gespeichert in {Dateiname}")
Vollständiges Codebeispiel
Hier ist der vollständige Code, der alles zusammenhält:
Rückkehr job_details sonst: drucken(f"Daten konnten nicht abgerufen werden. Statuscode: {Antwort['Kopfzeilen']['pc_status']}") RückkehrKeine
defJobdetails als JSON speichern(Daten, Dateiname='job_details.json'): mitXNUMXh geöffnet(Dateiname, 'w') as Datei: json.dump(Daten, Datei, Einzug=4) drucken(f"Daten gespeichert in {Dateiname}")
if __name__ == "__hauptsächlich__": job_url = 'https://www.monster.com/job-openings/d94729d8-929e-4c61-8f26-fd480c31e931' job_details = scrape_job_page(job_url)
if job_details: Jobdetails in JSON speichern (Jobdetails)
Der obige Code zeigt, wie man die Stellenseiten von Monster.com überprüft, spezifische Stelleninformationen extrahiert und in einer JSON-Datei speichert.
Beispielausgabe:
1 2 3 4 5 6 7 8 9 10 11 12 13 14
{ "Berufsbezeichnung":„Lagermitarbeiter in der Lieferstation“, "Stellenbeschreibung":„Lagermitarbeiter an der Amazon-Lieferstation – Stellenübersicht: Sie werden Teil des engagierten Amazon-Teams an der Lieferstation sein – der letzten Station, bevor wir unseren Kunden ein Lächeln aufs Gesicht zaubern. In unseren dynamischen und aktiven Rollen nehmen wir LKWs voller Bestellungen entgegen und bereiten sie dann für die Auslieferung vor. Sie beladen Förderbänder und transportieren und stellen Lieferungen zur Abholung durch Fahrer bereit. Aufgaben und Verantwortungen Zu Ihren Aufgaben können unter anderem gehören: Warenbestand empfangen und für die Lieferung vorbereiten. Technologien wie Smartphones und Handheldgeräte zum Sortieren, Scannen und Vorbereiten von Bestellungen verwenden. Paletten und Pakete bauen, verpacken, sortieren und transportieren. Außerdem müssen Sie in der Lage sein: Bis zu 2019 kg zu heben. LKW-Lieferungen entgegenzunehmen. Aufforderungen auf Bildschirmen anzuzeigen und Anweisungen für einige Aufgaben zu befolgen. Während der Schichten zu stehen, zu gehen, zu schieben, zu ziehen, in die Hocke zu gehen, sich zu bücken und zu greifen. Karren, Rollwagen, Sackkarren und andere Geräte zum Transport von Gegenständen verwenden. Treppen hinauf- und hinuntergehen (sofern zutreffend). In einer Höhe von bis zu 2019 m auf einem Zwischengeschoss arbeiten (sofern zutreffend). So sieht es an einer Amazon-Lieferstation aus. Umgebung. Sie arbeiten mit beweglichen Maschinen – Kommissionierern, Standstaplern, Hochregalstaplern und mobilen Karren. Tätigkeit. Manche Aktivitäten erfordern möglicherweise längeres Stehen an einer Stelle, Umhergehen oder Treppensteigen.Temperatur. Selbst mit Klimaanlagen können die Temperaturen in manchen Teilen des Lagers zwischen 60 und 00 °C schwanken; an heißen Tagen können die Temperaturen im LKW-Hof oder in den Anhängern über 0 °C betragen. Geräuschpegel. Es kann manchmal laut werden. Bei Bedarf stellen wir Gehörschutz zur Verfügung. Kleiderordnung. Entspannt, mit ein paar Sicherheitsregeln. Bequeme, geschlossene Schuhe sind erforderlich und in ausgewählten Geschäftsbereichen sind schützende Sicherheitsschuhe erforderlich. Je nach Rolle oder Standort stellt Ihnen Amazon einen Zappos-Geschenkgutschein im Wert von 110 $ für den Kauf von Schuhen zur Verfügung, damit Sie gut auf Ihren ersten Arbeitstag vorbereitet sind. Warum Sie Amazon lieben werden: Wir haben Jobs, die zu jedem Lebensstil passen, hochmoderne Arbeitsplätze, Teams, die unsere Mitarbeiter unterstützen und ihnen zuhören, sowie unternehmensorientierte Initiativen und Vorteile, die Sie bei der Unterstützung Ihrer Ziele unterstützen. Unsere Jobs sind in der Nähe, werden gut bezahlt und bieten eine ausgewogene Work-Life-Balance. Arbeitszeitflexibilität. Je nachdem, wo Sie arbeiten, können die Arbeitszeiten Vollzeit (40 Stunden), Kurzzeit (30–36 Stunden) oder Teilzeit (20 Stunden oder weniger) umfassen, alle mit der Option, bei Bedarf zusätzliche Stunden zu arbeiten. Erfahren Sie mehr über unsere Zeitpläne und Schichtoptionen. Arbeiten Sie, wenn es für Sie funktioniert. Die Schichten können über Nacht, am frühen Morgen, am Tag, am Abend und am Wochenende stattfinden. Sie können sogar viertägige Arbeitswochen und dreitägige Wochenenden haben. Informieren Sie sich über unsere Schichten. Bezahlung jederzeit. Sie können bis zu 70 % Ihres Verdienstes sofort nach Ihrer Schicht auszahlen lassen (für ausgewählte Mitarbeitergruppen). Erfahren Sie mehr über Anytime Pay. Unser Arbeitsplatz ist einzigartig. Hochmoderne Einrichtungen. Wir verfügen über moderne Lager, die sauber und gut organisiert sind. Sicherheit. Ihre Sicherheit ist uns wichtig. Alle Teams geben täglich Sicherheitstipps und wir stellen sicher, dass vor Ort Schutzausrüstung vorhanden ist. Bitte beachten Sie, dass für manche Rollen an bestimmten Standorten das Tragen eines Schutzhelms und/oder von Sicherheitsschuhen während der Arbeit erforderlich ist. Unser Team unterstützt Sie und hört Ihnen zu. Kultur. Seien Sie Teil eines integrativen Arbeitsplatzes, der eine Vielzahl von DEI-Programmen und Interessengruppen bietet. Teamumgebung. Arbeiten Sie in kleinen oder großen Teams, die sich gegenseitig unterstützen, an einem Arbeitsplatz, der zu den besten Arbeitsplätzen der Welt zählt. Neue Fähigkeiten. Je nach Rolle und Standort erlernen Sie den Umgang mit der neuesten Amazon-Technologie, einschließlich Handheld-Geräten und Robotik. Unser Unternehmen unterstützt Ihre Ziele. Vorteile. Viele unserer Schichten sind mit einer Reihe von Vorteilen verbunden, darunter Gehalts- und Sparmöglichkeiten, Gesundheitsversorgung, Seelenfrieden für Sie und Ihre Familie und mehr. Karrierechancen. Wir haben uns verpflichtet, unsere Mitarbeiter weiterzubilden und bieten eine Vielzahl kostenloser Schulungs- und Entwicklungsprogramme an. Darüber hinaus bieten wir für ausgewählte Mitarbeitergruppen Optionen zur Unterstützung bei Studiengebühren an. Sehen Sie, wohin Ihre Amazon-Reise Sie führen kann. Erfahren Sie mehr über alle Gründe, sich für Amazon zu entscheiden. Eine vollständige Liste der Vorteile und Kriterien, die einem erfolgreichen Bewerber angeboten werden, finden Sie hier. Anforderungen: Kandidaten müssen mindestens 18 Jahre alt sein und in der Lage sein, alle Stellenanforderungen und Sicherheitsrichtlinien auf Englisch zu verstehen und einzuhalten. Erste Schritte: Sie können mit der obigen Bewerbung beginnen. Wenn Sie Hilfe bei Ihrer Bewerbung benötigen oder mehr über unseren Einstellungsprozess erfahren möchten, finden Sie hier Unterstützung: https://hiring.amazon.com/hiring-process# /.Bitte beachten Sie: Wenn Sie bereits eine aktive Bewerbung eingereicht haben, aber zu einer anderen Site wechseln möchten, können Sie sich, anstatt sich auf eine neue Stelle zu bewerben, für die nächsten Schritte an die Bewerbungshilfe unter https://hiring.amazon.com/contact-us#/ wenden. Wenn Sie eine Behinderung haben und während des Bewerbungs- und Einstellungsprozesses Unterstützung benötigen, einschließlich Unterstützung für die Veranstaltung für neue Mitarbeiter, oder vor Beginn Ihres ersten Arbeitstages eine Anfrage stellen möchten, besuchen Sie bitte https://hiring.amazon.com/people-with-disabilities#/ oder wenden Sie sich an das Applicant-Candidate Accommodation Team (ACAT). Sie erreichen uns telefonisch unter 888-435-9287 von Montag bis Freitag zwischen 6:XNUMX Uhr und 4 Uhr PT.Equal EmploymentAmazon setzt sich für einen vielfältigen und integrativen Arbeitsplatz ein. , "Zahlen & Fakten":{ "Standort":„Revere, Massachusetts“, „Jobtyp“:„Befristet, Teilzeit“, "Industrie":"Transport und Lagerung - Materialien", "Gehalt":„18.50 $ pro Stunde“, „Unternehmensgröße“:„10,000 Mitarbeiter oder mehr“, „Gründungsjahr“:"1994", "Webseite":„http://Amazon.com/militaryroles“ }, "Über das Unternehmen":„Bei Amazon warten wir nicht auf die nächste große Idee. Wir stellen uns die Form unmöglicher Dinge vor und setzen sie dann mutig in die Realität um. Bisher hat uns diese Denkweise geholfen, einige unglaubliche Dinge zu erreichen. Lassen Sie uns neue Systeme bauen, den Status quo in Frage stellen und die Welt gestalten, in der wir leben möchten. Wir glauben, dass die Arbeit, die Sie hier leisten, die beste Arbeit Ihres Lebens sein wird. \nWo auch immer Sie sich in Ihrer Karriereerkundung befinden, Amazon hat wahrscheinlich eine Chance für Sie. Unsere Forscher und Ingenieure gestalten mit Alexa die Zukunft des natürlichen Sprachverständnisses. Mitarbeiter in Logistikzentren auf der ganzen Welt versenden Kundenbestellungen aus unseren Lagern bis an die Haustür. Produktmanager legen Funktionsanforderungen, Strategien und Marketingbotschaften für brandneue Kundenerlebnisse fest. Und während wir wachsen, werden wir Jobs hinzufügen, die noch nicht erfunden wurden. \nEs ist immer Tag 2019 \nBei Amazon ist es immer Tag 2019.\u2019d Was bedeutet das nun und warum ist es wichtig? Es bedeutet, dass unser Ansatz derselbe bleibt wie am ersten Tag von Amazon \u2019: kluge, schnelle Entscheidungen treffen, flexibel bleiben, erfinden und uns darauf konzentrieren, unsere Kunden zu begeistern. In unserem Aktionärsbrief von 2019 teilte Amazon-CEO Jeff Bezos seine Gedanken dazu mit, wie man eine „Tag 1“-Mentalität im Unternehmen aufrechterhält. \u2019cUm am ersten Tag zu bleiben, muss man geduldig experimentieren, Fehler akzeptieren, Samen pflanzen, Setzlinge schützen und doppelt nachlegen, wenn man sieht, dass die Kunden begeistert sind\u201d, schrieb er. \u1cEine kundenbesessene Kultur schafft am besten die Bedingungen, unter denen all dies geschehen kann.\u201d Sie können den vollständigen Brief hier lesen \nUnsere Führungsprinzipien\nUnsere Führungsprinzipien helfen uns, eine „Tag 2019“-Mentalität aufrechtzuerhalten. Sie sind nicht nur ein hübsches, inspirierendes Wandbild. Amazon-Mitarbeiter nutzen sie jeden Tag, egal ob sie Ideen für neue Projekte diskutieren, sich für die beste Lösung für das Problem eines Kunden entscheiden oder Bewerber interviewen. Um unsere Führungsprinzipien von Kundenbesessenheit bis Handlungsorientierung durchzulesen, besuchen Sie https://www.amazon.jobs/principles" }
Scrape Monster Jobs mit Crawlbase
Das Extrahieren von Stellenausschreibungen von Monster.com kann Ihren Ansatz zur Erfassung von Beschäftigungsdaten revolutionieren. Dieser Leitfaden führte Sie durch die Einrichtung einer Python-Umgebung, die Erstellung eines Monster.com-Seiten-Scrapers, die Handhabung der scrollbasierten Paginierung und die Speicherung Ihrer Informationen.
Für Websites wie Monster.com, die auf JavaScript angewiesen sind, sind Tools wie das Crawlbase Crawling API erweisen sich als unschätzbar wertvoll. Sie können diese Methode an Ihre Anforderungen anpassen, egal ob Sie ein persönliches Job-Tracking-System erstellen oder Daten für ein Großprojekt sammeln. Erweitern Sie Ihr Wissen ständig und denken Sie daran, dass effektives Web Scraping von der Auswahl geeigneter Tools und Techniken abhängt.
Um Ihre Kenntnisse im Bereich Web Scraping zu erweitern, sehen Sie sich unsere nächsten Anleitungen zum Extrahieren von Daten von anderen wichtigen Websites an.
Bei Fragen oder Anregungen steht Ihnen unser Support-Team steht Ihnen jederzeit zur Verfügung, um Sie bei Ihrem Web Scraping-Vorhaben zu unterstützen. Viel Spaß beim Scraping!
Häufig gestellte Fragen
F: Kann ich mithilfe grundlegender Python-Bibliotheken Stellenangebote von Monster.com extrahieren?
Sie können versuchen, Monster.com mit einfachen Python-Bibliotheken wie requests und BeautifulSoup zu scrapen. Die Seite ist jedoch auf JavaScript angewiesen, um Inhalte anzuzeigen. Das macht es für einfache Scraping-Methoden schwierig, Stellenangebote gut zu erfassen. Für den Umgang mit JavaScript und sich ändernden Inhalten empfehlen wir die Verwendung von Crawlbase Crawling API.
F: Wie gehe ich mit der Seitennummerierung beim Scraping von Monster.com um?
Monster.com lädt mehr Jobs, wenn Sie auf der Seite nach unten scrollen. Dies wird als scrollbasierte Paginierung bezeichnet. Um dies zu handhaben, können Sie die scroll und scroll_interval Parameter in der Crawlbase Crawling API. Diese Methode stellt sicher, dass Ihr Scraper sich wie ein echter, scrollender Benutzer verhält und so viele Stellenangebote wie möglich erhält.
F: Ist das Scraping von Monster.com legal?
Sie müssen die Nutzungsbedingungen der Website überprüfen, um sicherzugehen, was Sie legal scrapen dürfen. Es ist auch wichtig, verantwortungsbewusst zu scrapen, indem Sie robots.txt Regeln und Vermeidung übermäßiger Anfragen, die ihre Server belasten könnten.