Leadgenerierung
25.03.2026

Leads scrapen mit Apify: Lohnt es sich wirklich? (+Kostenrechner)

Apify kann Firmendaten aus Google Maps und LinkedIn extrahieren, aber reicht das für hochwertige B2B-Leads? Ehrlicher Praxistest mit Kosten, Grenzen und Alternativen (inkl. interaktivem Kostenrechner).
Janik Deimann

B2B Leads mit AI generieren?

Mit LeadScraper erstellst du passende B2B Listen in Sekunden. 100 % DSGVO-konform. Ohne Abo!

TESTACCOUNT ANLEGEN

Apify gehört zu den leistungsstärksten Web-Scraping-Plattformen auf dem Markt. Tausende Entwickler nutzen es, um Daten aus Google Maps, LinkedIn, Websites und Branchenverzeichnissen zu extrahieren. Klingt nach dem perfekten Werkzeug, um B2B-Leads in großem Stil zu sammeln.

Doch zwischen "Daten scrapen" und "vertriebsfertige Leads haben" liegt ein erheblicher Unterschied. In diesem Artikel erfährst du, wie Lead Scraping mit Apify funktioniert, wo die echten Grenzen liegen und ab wann ein spezialisiertes Lead-Tool wie LeadScraper.de die bessere Wahl ist.

Das Wichtigste in Kürze
  • Apify kann Firmendaten aus Google Maps, LinkedIn und Websites extrahieren, liefert aber keine fertigen Leads mit verifiziertem Ansprechpartner und E-Mail-Adresse.
  • Der eigentliche Aufwand beginnt nach dem Scraping: Enrichment, Verifizierung und Datenaufbereitung erfordern zusätzliche Tools und technisches Know-how.
  • Für technische Teams mit Entwickler-Ressourcen ist Apify ein mächtiges Werkzeug. Für Vertriebsteams ohne technischen Hintergrund übersteigt der Aufwand meist den Nutzen.
  • Spezialisierte Lead-Tools wie LeadScraper liefern direkt vertriebsfertige Kontakte inklusive Ansprechpartner, ohne dass du eine eigene Pipeline bauen musst.

Was ist Apify und wie funktioniert es?

Apify ist eine Cloud-Plattform für Web Scraping und Automatisierung. Das Kernkonzept sind sogenannte "Actors", also vorgefertigte oder selbst programmierte Scraping-Scripts, die in der Cloud laufen. Im Apify Store findest du über 1.500 fertige Actors für praktisch jede Datenquelle.

Du bezahlst über ein Creditbasiertes Modell. Jeder Actor verbraucht je nach Komplexität und Datenmenge unterschiedlich viele Credits. Die kostenlose Stufe reicht für erste Tests, aber für regelmäßiges Lead Scraping in nennenswertem Umfang brauchst du einen kostenpflichtigen Plan.

Ganz konkret bedeutet das für die Leadgenerierung: Du wählst einen Actor für deine Datenquelle (z.B. Google Maps), konfigurierst Suchbegriffe und Region per JSON oder über die Weboberfläche und startest den Lauf. Die Ergebnisse bekommst du als JSON, CSV oder Excel.

Welche Datenquellen lassen sich anzapfen?

Apify kann im Prinzip jede öffentlich zugängliche Website scrapen. Für die B2B-Leadgenerierung sind vier Quellen besonders relevant.

Google Maps ist die populärste Quelle für lokale Firmendaten. Wer tiefer einsteigen will, findet in unserem Ratgeber zum Google Maps Unternehmen scrapen eine ausführliche Anleitung. Der meistgenutzte Actor (compass/crawler-google-places) extrahiert Firmennamen, Adressen, Telefonnummern, Websites, Bewertungen und Öffnungszeiten. Laut Apify lassen sich damit auch mehr als die üblichen 120 Ergebnisse pro Suche extrahieren, die Google Maps standardmäßig anzeigt.

LinkedIn ist die naheliegendste Quelle für B2B-Kontakte, aber gleichzeitig die problematischste. LinkedIn blockt Scraping aktiv, und die rechtliche Lage ist komplex. Dazu später mehr im Abschnitt zur DSGVO.

Unternehmenswebsites lassen sich mit dem Website Content Crawler gezielt nach Kontaktseiten, Impressumsdaten oder Teamseiten durchsuchen. Das ist vor allem dann sinnvoll, wenn du bereits eine Liste von Firmen-URLs hast und gezielt Ansprechpartner oder E-Mail-Adressen extrahieren willst.

Branchenverzeichnisse wie Gelbe Seiten, Wer liefert was oder branchenspezifische Portale sind ebenfalls scrapbar. Hier ist die Datenqualität oft gut, dafür sind die Informationen weniger aktuell als bei Google Maps.

Leads scrapen mit Apify – So funktioniert es Schritt für Schritt

Google Maps Leads scrapen

Google Maps ist der einfachste Einstieg ins Lead Scraping mit Apify. Der Actor compass/crawler-google-places ist der Standardweg und wird von Apify selbst gepflegt.

Die Einrichtung ist unkompliziert.

1
Actor auswählen
compass/crawler-google-places im Apify Store öffnen
Apify Store
2
Suchbegriffe eingeben
Keywords + Standort definieren, z.B. „Zahnarzt Hamburg"
Konfiguration
3
Actor starten
Scraper läuft, sammelt Firmendaten aus Google Maps
Ausführung
4
Daten exportieren
JSON, CSV oder Excel, aber ohne E-Mail und Ansprechpartner
Export

Der Output enthält pro Eintrag unter anderem Firmenname, Adresse, Telefonnummer, Website-URL, Bewertungsdurchschnitt und Anzahl der Bewertungen. Das klingt erst mal nach einer brauchbaren Leadliste.

Aber hier liegt das Problem, und das wird in den meisten Anleitungen verschwiegen: Google Maps liefert keine E-Mail-Adressen und keine individuellen Ansprechpartner. Du bekommst die allgemeine Telefonnummer der Firma und die Website. Wer dort dein Ansprechpartner ist und wie du ihn erreichst, musst du selbst herausfinden.

Tipp

Apify bietet ein kostenpflichtiges Add-on für "Contact Details Enrichment" an, das Websites nach E-Mail-Adressen und Social-Media-Profilen durchsucht. Das verbessert die Datenlage, liefert aber in der Regel generische Info@-Adressen statt persönliche Kontakte.

LinkedIn-Daten scrapen

LinkedIn ist die Plattform, auf der B2B-Entscheider am besten erreichbar sind. Entsprechend groß ist die Versuchung, Profile und Kontaktdaten zu scrapen.

In der Praxis sieht das allerdings schwierig aus. LinkedIn erkennt und blockiert automatisiertes Scraping aggressiv. Die Plattform begrenzt die Anzahl der Profile, die du aufrufen kannst, und sperrt Accounts, die auffällig viele Seiten laden.

Laut einer Analyse von PhantomBuster gelten je nach Accounttyp unterschiedliche Limits. Neue Accounts können etwa 80 Profile über 8 Durchläufe extrahieren, aktive Free-Accounts rund 150 Profile über 10 Durchläufe. Premium-Accounts kommen auf bis zu 300 Profile über 20 Durchläufe. Wer diese Limits überschreitet, riskiert eine Accountsperre.

Apify bietet LinkedIn-Scraper im Store an, aber sie erfordern einen aktiven LinkedIn-Login (Session Cookie), den du manuell bereitstellen musst. Das ist nicht nur umständlich, sondern bedeutet auch, dass du deinen eigenen LinkedIn-Account riskierst.

Aus meiner Einschätzung ist LinkedIn-Scraping für die meisten B2B-Teams kein praktikabler Weg. Der Aufwand steht in keinem Verhältnis zum Ergebnis, und das Risiko einer Accountsperre ist real.

Websites und Branchenverzeichnisse scrapen

Wenn du bereits weißt, welche Firmen du kontaktieren willst, kannst du mit Apify gezielt deren Websites scrapen. Der "Website Content Crawler" durchsucht Seiten nach Kontaktinformationen, Impressumsdaten und Teamseiten.

Das funktioniert technisch gut, hat aber einen Haken: Jede Website ist anders aufgebaut. Ein Scraper, der bei Firma A die E-Mail-Adresse zuverlässig findet, scheitert bei Firma B an einem anderen Seitenlayout. Du brauchst entweder einen sehr flexiblen Parser oder musst regelmäßig nachbessern.

Branchenverzeichnisse sind einfacher zu scrapen, weil die Seitenstruktur einheitlich ist. Allerdings findest du dort oft dieselben Basisdaten wie auf Google Maps, nur eben aus einer anderen Quelle.

Das Enrichment-Problem – Warum Scraping allein nicht reicht

Das ist der Punkt, an dem die meisten Lead-Scraping-Projekte scheitern, und genau deshalb ist Lead Enrichment ein eigenständiges Thema. Nicht am Scraping selbst, sondern an allem, was danach kommt.

Ein Nutzer auf Reddit hat seine komplette Google Maps Lead Pipeline öffentlich dokumentiert. Er nutzt den Apify Google Maps Scraper als Basis, ergänzt die Daten dann über Website-Scraping, DuckDuckGo-Suchen und sogar KI-basierte Extraktion mit Claude Haiku. Seine E-Mail-Trefferquote nach all diesen Enrichment-Schritten liegt bei 60-70%.

Das bedeutet: Von 100 gescrapten Firmen bekommst du am Ende für 60-70 eine E-Mail-Adresse, und die ist oft eine generische Firmenadresse, kein persönlicher Kontakt. Für den richtigen Ansprechpartner mit Namen, Position und direkter E-Mail brauchst du noch weitere Schritte.

Eine typische Pipeline besteht aus vier Schritten.

1
Google Maps scrapen
Apify Actor
Basisdaten: Firmenname, Adresse, Telefonnummer, Website, Bewertungen. Keine E-Mail, kein Ansprechpartner.
2
Firmenwebsite crawlen
Website Scraper
Impressum, Kontaktseite und „Über uns" durchsuchen. E-Mail-Adressen extrahieren, oft info@-Adressen.
3
Web-Suche für fehlende Daten
DuckDuckGo / Google
Firmennamen + „E-Mail" oder „Geschäftsführer" suchen. Ergänzt Lücken aus Schritt 2.
4
KI-Extraktion
Claude Haiku / GPT
Unstrukturierte Texte (Impressum, About-Seiten) per LLM auswerten. Namen, Positionen und Kontaktdaten extrahieren.
Ergebnis nach allen 4 Schritten
100 gescrapte Firmen100 %
Davon mit E-Mail-Adresse60–70 %
Davon mit persönlichem Ansprechpartner~25 %
Quelle: Öffentlich dokumentierte Reddit-Pipeline. Die E-Mail-Trefferquote bezieht sich überwiegend auf generische Firmenadressen.

Jeder dieser Schritte kostet Zeit, Geld und technisches Know-how. Und jeder Schritt ist eine potenzielle Fehlerquelle, an der Datenqualität verloren geht.

Aufwand-Realitätscheck – Für wen lohnt sich Apify?

Technische Voraussetzungen

Apify ist kein Tool, das du einfach öffnest und loslegst. Selbst die fertigen Actors im Store erfordern JSON-Konfiguration, ein Verständnis von API-Aufrufen und die Fähigkeit, mit strukturierten Daten umzugehen.

Für eine vollständige Lead-Pipeline, wie der Reddit-Nutzer sie beschrieben hat, brauchst du Python-Kenntnisse, API-Integrationen und ein grundlegendes Verständnis von Datenverarbeitung. Das ist für Entwickler kein Problem, für einen typischen Vertriebsmitarbeiter aber eine hohe Hürde.

Kosten: Mehr als nur Apify Credits

Die reinen Apify-Kosten wirken auf den ersten Blick günstig. Der Google Maps Scraper verbraucht je nach Datenmenge rund 0,5 bis 2 US-Dollar pro 1.000 Ergebnisse. Aber das ist nur der erste Schritt.

Für 1.000 Leads pro Monat sieht ein realistisches Kostenbeispiel so aus.

Kostenrechner: Apify Lead-Pipeline
Geschätzte monatliche Kosten für eine vollständige Pipeline
Leads pro Monat
1.000
Google Maps Scraper 1,40 €
Website Crawler (Enrichment) 4,60 €
Web-Suche (DuckDuckGo/Google) 2,80 €
KI-Extraktion (Claude Haiku / GPT) 2,30 €
Apify-Plattform (Abo ab Starter) 45,00 €
Geschätzte Gesamtkosten / Monat
56,10 €
Ohne Arbeitszeit für Setup, Wartung und Fehlerbehebung. Kosten variieren je nach Datenquelle und Pipeline-Komplexität.
Geschätzter Setup-Aufwand: 4–8 Stunden (einmalig) + laufende Wartung
Nicht eingerechnet: ca. 3–5 h/Monat für Monitoring, Fehlerhandling und Pipeline-Updates

Die reinen Tool-Kosten bleiben niedrig. Der echte Kostenfaktor ist die Zeit, die du für Setup, Konfiguration und laufende Pflege investierst.

Maintenance und Datenqualität

Scraper brechen. Das ist keine Frage des Ob, sondern des Wann. Websites ändern ihre Struktur, Plattformen aktualisieren ihre Anti-Scraping-Maßnahmen, und APIs ändern ihre Formate.

Bei Apify sind die Actors im Store meist gut gepflegt, aber deine eigenen Enrichment-Pipelines musst du selbst warten. Und selbst bei gut gepflegten Actors kann ein Google-Update dafür sorgen, dass du plötzlich andere Datenformate bekommst.

Laut Bright Data ändert allein LinkedIn regelmäßig seine Seitenstruktur, was bestehende Scraper unbrauchbar machen kann. Wer darauf angewiesen ist, muss kontinuierlich nachbessern.

DSGVO beim Lead Scraping – Was ist erlaubt?

Lead Scraping bewegt sich datenschutzrechtlich in einer Grauzone, die du kennen solltest. Einen umfassenden Überblick dazu gibt unser Artikel zur DSGVO-konformen Leadgenerierung.

Öffentlich zugängliche Firmendaten wie Firmenname, Adresse, Telefonnummer und allgemeine E-Mail-Adressen (info@) sind in der Regel unproblematisch. Das sind keine personenbezogenen Daten im Sinne der DSGVO, solange kein Bezug zu einer natürlichen Person herstellbar ist.

Anders sieht es aus, sobald du personenbezogene Daten sammelst. Namen von Ansprechpartnern, persönliche E-Mail-Adressen oder LinkedIn-Profildaten fallen unter die DSGVO. Hier brauchst du eine Rechtsgrundlage, typischerweise das berechtigte Interesse nach Art. 6 Abs. 1 lit. f DSGVO. Ob dieses greift, hängt vom Einzelfall ab.

LinkedIn-Scraping ist besonders heikel. Dr. Datenschutz hat den Fall LinkedIn gegen hiQ Labs ausführlich analysiert. Das Ergebnis: Selbst wenn Daten öffentlich zugänglich sind, bedeutet das nicht automatisch, dass du sie für kommerzielle Zwecke verwenden darfst. Die DSGVO verlangt eine sorgfältige Abwägung zwischen deinem Interesse und den Rechten der betroffenen Personen.

Aus meiner Erfahrung fahren Unternehmen am sichersten, wenn sie auf Tools setzen, die DSGVO-Konformität von Anfang an eingebaut haben. Bei LeadScraper arbeiten wir ausschließlich mit öffentlich zugänglichen Firmendaten und liefern transparente Quellenangaben für jeden Kontakt.

Apify vs. spezialisierte Lead-Tools im Vergleich

Die entscheidende Frage ist nicht, ob Apify funktioniert. Das tut es. Die Frage ist, ob der Aufwand für dein Team gerechtfertigt ist.

Kriterium Manuelle Recherche Apify + eigene Pipeline LeadScraper.de
Setup-Aufwand Keiner Hoch (Stunden bis Tage) Gering (sofort nutzbar)
Technisches Know-how Keines nötig JSON, APIs, ggf. Python Keines nötig
Ansprechpartner + E-Mail Manuell recherchiert Nur mit Enrichment-Pipeline Direkt inklusive
Datenqualität Sehr hoch, aber langsam Abhängig von Pipeline Konsistent hoch
DSGVO-Konformität Eigenverantwortung Eigenverantwortung Eingebaut
Kosten pro 1.000 Leads Nur Arbeitszeit 30–70 € + Zeitaufwand Creditbasiert
Zielgruppen-Flexibilität Hoch Hoch (jede Datenquelle) Hoch (Freitext-Prompts)
Wartungsaufwand Keiner Laufend Keiner

Apify macht Sinn, wenn du ein technisches Team hast, sehr spezifische Datenquellen brauchst (z.B. Nischen-Branchenverzeichnisse) oder bereits eine bestehende Automatisierungs-Pipeline betreibst, etwa mit n8n für die Leadgenerierung, in die du Apify einbinden kannst.

Ein spezialisiertes Lead-Tool ist besser, wenn du als Vertriebsteam schnell vertriebsfertige Kontakte brauchst, ohne eine eigene Scraping-Infrastruktur aufzubauen. Bei LeadScraper beschreibst du in Freitext-Feldern, wen du suchst, und bekommst direkt Firmenname, Website, E-Mail, Telefonnummer und den richtigen Ansprechpartner. Ohne JSON, ohne API-Calls, ohne Enrichment-Pipeline.

Wer statt Scraping lieber auf fertige Kontaktdaten setzt, kann auch direkt B2B-Leads kaufen, sollte aber die Qualitätsunterschiede kennen.

Manuelle Recherche bleibt sinnvoll für sehr kleine Zielgruppen (unter 50 Firmen), bei denen die individuelle Qualität jedes einzelnen Kontakts entscheidend ist.

Häufige Fehler beim Lead Scraping mit Apify

!
Zu viel scrapen, zu wenig filtern
5.000 Restaurants scrapen und dann manuell filtern ist Zeitverschwendung. Schon bei der Suche so spezifisch wie möglich sein.
!
Enrichment vergessen
Mit Firmennamen und Telefonnummern allein kannst du wenig anfangen. Der Enrichment-Schritt macht oft mehr Aufwand als das Scraping selbst.
!
DSGVO unterschätzen
Beim Scraping von LinkedIn-Profilen oder persönlichen E-Mails gibt es echte rechtliche Risiken. Abmahnungen und Bußgelder sind möglich.
!
Maintenance-Aufwand unterschätzen
Scraper brechen regelmäßig. Websites ändern sich, Datenformate ändern sich. Plane feste Zeitbudgets für die Pflege ein.

Fazit

Apify ist ein hervorragendes Werkzeug für Web Scraping und Datenextraktion. Für die B2B-Leadgenerierung ist es allerdings kein Fertigprodukt, sondern ein Baustein, aus dem du dir selbst eine Pipeline zusammenbauen musst.

Wenn du ein technisches Team hast und bereit bist, in Setup und Maintenance zu investieren, kannst du mit Apify hochindividuelle Lead-Pipelines aufbauen. Die Kosten pro Lead bleiben niedrig, der Zeitaufwand ist dafür erheblich.

Für die meisten Vertriebsteams ist der Weg über ein spezialisiertes Tool effizienter. Mit LeadScraper beschreibst du deine Zielgruppe in eigenen Worten und bekommst direkt vertriebsfertige Leads mit Ansprechpartner und Kontaktdaten, ohne eigene Scraping-Infrastruktur, ohne Enrichment-Pipeline und ohne laufenden Wartungsaufwand.

Die ehrliche Empfehlung: Probier Apify ruhig aus, wenn dich das Thema interessiert. Du wirst dabei viel über Datenquellen und Datenqualität lernen. Aber rechne realistisch durch, ob der Aufwand für dein Team den Output rechtfertigt, bevor du eine komplette Pipeline aufbaust.

FAQ

Was kostet Apify für Lead Scraping?

Apify bietet eine kostenlose Stufe mit begrenzten Credits. Für regelmäßiges Lead Scraping brauchst du einen kostenpflichtigen Plan ab ca. 49 $ pro Monat. Dazu kommen Kosten für Enrichment-Tools und E-Mail-Verifizierung. Die reinen Scraping-Kosten liegen bei etwa 0,5-2 $ pro 1.000 Google Maps Ergebnisse. Der größte Kostenfaktor ist allerdings die eigene Arbeitszeit für Setup und Pflege.

Ist Lead Scraping mit Apify legal?

Das Scraping öffentlich zugänglicher Firmendaten (Firmenname, Adresse, Telefonnummer) ist in der Regel zulässig. Beim Scraping personenbezogener Daten wie Namen und persönliche E-Mail-Adressen greift die DSGVO. Du brauchst eine Rechtsgrundlage, und beim LinkedIn-Scraping verstößt du zusätzlich gegen die Nutzungsbedingungen der Plattform. Im Zweifel solltest du dich rechtlich beraten lassen.

Kann ich mit Apify LinkedIn-Leads scrapen?

Technisch ja, praktisch nur eingeschränkt. LinkedIn blockiert automatisiertes Scraping aktiv und begrenzt die Anzahl der Profile, die du aufrufen kannst. Du brauchst einen aktiven LinkedIn-Login und riskierst eine Accountsperre. Für die meisten B2B-Teams ist LinkedIn-Scraping über Apify kein praktikabler Weg.

Welche Apify-Actors eignen sich für Leadgenerierung?

Die wichtigsten Actors sind compass/crawler-google-places für Google Maps Daten, der Website Content Crawler für das Extrahieren von Kontaktdaten von Firmenwebsites und verschiedene LinkedIn-Scraper im Apify Store. Für das Enrichment bietet Apify ein kostenpflichtiges "Contact Details" Add-on an, das E-Mail-Adressen und Social-Media-Profile von Websites extrahiert.

Lass KI-Agenten 24/7 für dich arbeiten

Leadscraper hilft dir, genau die Entscheider zu erreichen, die wirklich Interesse haben. Schnell. Einfach. DSGVO-konform.
4.8 / 5.0
Exzellentes Nutzerfeedback