SEO Logfile Analyzer

Der neue SEO Logfile Analyzer crawlOPTIMIZER übernimmt für Dich sämtliche Analysen und Auswertungen Deiner Webserver-Logfiles. Du ersparst Dir extrem viel Zeit und Du kannst jederzeit auf Deine Logfiles zugreifen. Entdecke den crawlOPTIMIZER und optimiere das Crawling des Googlebots.

BABY WALZ
XXXLUTZ
JAKO-O
MÖBELIX
PLANET SPORTS
MÖMAX

Collecting log data is no deal. Understanding log data is our deal!

crawlOPTIMIZER ist ein einzigartiges Tool zur Crawl Budget Optimierung – zeitaufwändige, manuelle & komplexe Logfile Analysen sind ab sofort obsolet: crawlOPTIMIZER übernimmt das alles für Dich und hilft Dir bei der Steigerung der Googlebot Crawling-Effizienz!

Made in Germany

Effizientes Crawling + straffes Indexmanagement = SEO ❤ Love

Dashboard crawlOPTIMIZER

crawlOPTIMIZER analysiert & speichert Logfiles automatisch

Der crawlOPTIMIZER analysiert vollautomatisiert die Logdaten des Googlebots und archiviert diese auf einem abgesicherten Server in Deutschland bis zu 5 Jahre lang. In unserem übersichtlichen crawlOPTIMIZER Dashboard hat man die Aktivitäten des Googlebots rund um die Uhr im Blick. Dank der Logdatenspeicherung und dem von uns entwickelten Logfile-Explorer sind selbst rückwirkende Analysen jederzeit und problemlos möglich.
Fix & fertige Auswertungen

Vordefinierte Analysen & Auswertungen helfen selbst SEO-fremden Personen Crawling-Probleme mühelos aufzudecken.

Serverstandort Deutschland & 100% DSGVO konform

Es werden keine User-bezogenen Daten analysiert & gespeichert. Nur die des Googlebots. DSGVO konform.

Bastian Grimm, Peak Ace AG

„Logfile-Analyse gehört als fortlaufender Prozess unabdingbar zur technischen Suchmaschinenoptimierung dazu. Der crawlOPTIMIZER unterstützt hier insbesondere durch eine Vielzahl bereits vordefinierter Dashboards, die vor allem Einsteigern das Leben enorm erleichtern. Erfreulicherweise integriert sich das Tool zudem nahtlos in vorhandene Workflows und ist zudem super flexibel. Das macht die Anbindung verschiedenster Datenquellen zur Anlieferung und Auswertung von Logfiles zum Kinderspiel.“

Bastian Grimm, CEO & Director Organic Search bei Peak Ace AG

Bastian Grimm

Welche Inhalte Deiner Webseite werden gecrawlt?

Unser SaaS-Tool crawlOPTIMIZER liefert automatisiert wertvolle Insights aus Deinen Logfiles, wie Google Deine Webseite erfasst. Es zeigt Dir auf einen Blick, welche Inhalte vom Googlebot ausgelesen werden und ob wichtige Inhalte unter Umständen gar nicht gecrawlt werden. Um Langzeitanalysen zu ermöglichen, können auf Wunsch Deine Logfiles bis zu 5 Jahre lang gespeichert werden. Alle Maßnahmen verfolgen das Ziel, den unbezahlten Suchmaschinen-Traffic zu steigern.

Logfile Analysen auf Knopfdruck & ohne Aufwand

 Alle Googlebot-Aktivitäten rund um die Uhr im Blick

Dashboard mit fixfertigen & verständlichen Auswertungen

Kein spezifisches SEO-Logfile-Know-how nötig

Manuelle Analysen & Reports dank Logfile Explorer

Langzeitanalysen bis 5 Jahre dank cloudbasierter Lösung

Ultra einfache & schnelle Übermittlung der Logfiles

Einmaliges, einfaches Andocken – Deine IT wird uns lieben!

100% DSGVO konform

Für wen ist der crawlOPTIMIZER?

Logfile Analysen aus SEO-Sicht liefern unerkannte Optimierungspotenziale für jeden Digital-Marketer

1. Zielgruppe

crawlOPTIMIZER richtet sich an alle Personen, die den unbezahlten Suchmaschinen-Traffic in Unternehmen verantworten und wenig Zeit für ausführliche, regelmäßige Logfile-Analysen haben oder über kein spezifisches Know-how verfügen. Beispiele:

• Head of SEO
• SEO-Manager
• Head of Online Marketing
• Online Marketing Manager
• Head of e-Commerce
• e-Commerce Manager
• Webmaster / IT-Admins
• SEO-Agenturen

2. Webseiten

crawlOPTIMIZER wurde speziell für Webseiten ab einer Größe von einigen tausend Pages entwickelt oder Online-Unternehmungen, die großes Interesse an einer Steigerung des unbezahlten Suchmaschinen-Traffics haben. Beispiele:

• Online-Shops
• News-Portale
• Wetterseiten
• Informationswebseiten
• e-Commerce Webseiten
• Große Blogs / Foren etc.

Stephan Czysch, Dept Agency

„Wenn Du eine umfangreiche Website betreibst und SEO für Deinen Weberfolg wichtig ist, dann ist eine regelmäßige Kontrolle und Optimierung des Crawling-Verhaltens Pflicht. Der crawlOPTIMIZER bereitet die Logfiles Deines Servers ideal auf und lässt Dich Potenziale sehr schnell identifizieren. Durch eine Anpassung der robots.txt im Nachgang an Logfile-Analysen konnten wir speziell für große Online Shops deutliche Traffic-Gewinne erzielen.“

Stephan Czysch, Autor mehrerer SEO-Fachbücher & Dozent für SEO

Stephan Czysch | crawlOPTIMIZER

Wozu brauche ich den crawlOPTIMIZER?

Logfile Analyse ist kein Projekt, sondern ein Prozess

Ohne Crawling gibt es keine Indexierung und somit auch keine Platzierung in den Google-Suchergebnissen.

Deine Webseite kann nur über die Google-Suche gefunden werden, wenn sie vorab in den Google-Index aufgenommen wurde. Für diesen Zweck crawlt (=durchsucht) der Googlebot (auch Spider genannt) täglich alle verfügbaren Webseiten weltweit, auf der Suche nach neuen und aktualisierten Inhalten.

Mit Hilfe diverser Onsite-Optimierungsmaßnahmen kannst Du einen gewissen Einfluss auf den Crawling-Prozess nehmen und somit bestimmen, welche Inhalte in den Google-Index aufgenommen und welche Inhalte häufiger gecrawlt werden sollen.

Nur die Webserver-Logfiles geben Aufschluss darüber, welche und wie häufig der Googlebot Inhalte crawlt. Daher sollte ein kontinuierliches Crawling-Monitoring in allen größeren Online-Unternehmungen als Prozess verankert werden. Für diesen Zweck wurde der crawlOPTIMIZER entwickelt, getreu dem Motto: Keep it as simple as possible.

SEO-Prozess

„Der Google-Bot ist der Webcrawler (auch „Spider“ genannt) von Google. Crawling wird der Prozess genannt, durch den der Google-Bot neue und aktualisierte Seiten ermittelt, damit sie dem Google-Index hinzugefügt werden können.“ Quelle: Google Search Console

Stimmen über Logfile Analysen & Crawl Budget Optimierung

John Müller

Webmaster Trends Analyst bei Google

„Log files are so underrated, so much good information in them.“ (Twitter)

John Müller

Prof. Dr. Dominik Große Holtforth

Experte für E-Commerce

„[…] Wie man sieht, sind Crawlability und das Crawl Budget mehr als ein SEO Mythos, sondern eine handfeste Optimierungsaufgabe. Da sie eher abstrakt ist, gerät sie unter Umständen eher ins Hintertreffen als konkrete Onsite-Optimierungsmaßnahmen. Diese laufen allerdings ins Leere, wenn man die Qualität der Website aus der Crawlingperspektive nicht im Auge behält.“ Zur Originalquelle

Tweets über Logfile Analysen

Logfile Analysen machen Sinn

Welchen Sinn & Zweck erfüllt der crawlOPTIMIZER?

Alle Maßnahmen dienen der Steigerung des unbezahlten Suchmaschinen-Traffics

1. Crawling kostet Google Geld

„Wenn Sie Google-Produkte verwenden, erledigen die Server in unseren Rechenzentren die Arbeit für Sie – weltweit und rund um die Uhr. Unsere Server unterstützen viele Produkte gleichzeitig. Dies ist die so genannte „Cloud“. Indem wir unsere Server ständig beschäftigen, können wir mit weniger Aufwand mehr erledigen […]“, Quelle: Google

 

• Google betreibt weltweit 15 Rechenzentren

• Betriebskosten pro Jahr 10+ Mrd. USD

• Das Crawling von Webseiten kostet Google besonders viel Geld

• Auch Deine Server-Ressourcen werden durch ein unnötiges Crawl-Aufkommen stark belastet

2. Nutzen & Mehrwert

crawlOPTIMIZER liefert wertvolle Insights, wie Google Deine Webseite erfasst, d.h. welche Inhalte von Google „ausgelesen“ werden können und welche nicht. Relevant sind diese Informationen, da es ohne Crawling kein Ranking und folglich keinen Suchmaschinen-Traffic gibt. Beispiele:

• Wo ver(sch)wendet Google Ressourcen?
• Werden meine wichtigen Inhalte gecrawlt?
• Welche Inhalte werden gar nicht gecrawlt?
• Hat der Googlebot Probleme beim Crawling?
• Logfiles helfen die interne Verlinkung zu optimieren
• Mittels Logfiles identifiziert man präzise Orphan Pages
• Und viele weitere Optimierungspotenziale…

3. Ziel einer Crawl-Optimierung

✔ Neue & geänderte Inhalte sollen möglichst schnell im Google-Index aufgenommen werden (z.B. neue Produkte indexieren / Title-Tag & Meta-Description Änderungen / neue Robots-Anweisungen / neue oder geänderte Textinhalte uvm)

✔ Nur SEO-Landingpages sollen gecrawlt werden – keine Verschwendung von Google-Crawls

✔ Shift / Verschiebung von ursprünglich verschwendeten Google-Crawls auf SEO-Landingpages

✔ Ein nahezu vollständiger Crawl der gesamten Webseite (SEO-relevante Seiten) in möglichst kurzer Zeit

✔ Fehler der eigenen Webseite bzw. Infrastruktur rasch aufdecken und umgehend beseitigen (z.B. 4xx, 5xx Fehler)

✔ Schonender & effizienter Umgang mit Ressourcen (Serverinfrastruktur, Traffic etc.), sowohl intern, als auch bei Google

✔ Stärkung der Marke

Folglich: Steigerung der Sichtbarkeit & des kostenlosen Traffics

Daniel Dietrich, XXXLUTZ

„Wir betreuen alle nationalen und internationalen Online-Shops der gesamten XXXLUTZ-Gruppe und sind aufgrund des enormen Arbeitsaufwandes auf effiziente Tools angewiesen, die uns Arbeit abnehmen. Professionelle, permanente Logfile Analysen zu fahren, bedeuten großen Zeitaufwand, alleine schon für die Aufbereitung der Daten. Der crawlOPTIMIZER nimmt uns diese Arbeit ab und wir können uns endlich auf das Wesentliche konzentrieren.“

Daniel Dietrich, Head of SEO der XXXLUTZ-Gruppe

Daniel Dietrich XXXLUTZ

Highlights

Was den crawlOPTIMIZER so besonders macht

Googlebot Aktivitäten

Sehen und verstehen welche Seiten von Google gecrawlt werden. Ziel: Maßnahmen ableiten, die das Crawling verbessern können.

Fertige Analysen & Auswertungen

Das Herzstück des Tools ist das Dashboard mit den fixfertigen & relevanten Auswertungen. Durch dieses Dashboard ersparst Du Dir extrem viel Deiner kostbaren Zeit.

Datenspeicherung bis zu 5 Jahre

Endlich sind rückwirkende Logfile Analysen ohne Aufwand möglich! Dank der Logdatenspeicherung in einer sicheren Cloud. Jederzeit und überall abrufbar.

Einfach & verständlich

 Alle vordefinierten Analysen & Auswertungen sind so aufgebaut, dass sie möglichst alle verstehen – selbst ohne spezifischem SEO-Background!

Schnelle & einfache Anbindung

Um möglichst einfach Deine Logdaten ziehen zu können, haben wir mehrere Alternativen erarbeitet. Das einmalige Setup wird so zum Kinderspiel.

24/7 Support

Bei Fragen stehen wir Dir jederzeit zur Seite. Sehr gerne unterstützen wir Dich beim erstmaligen Setup. Zudem kommunizieren wir gerne auch direkt mit Deiner IT oder mit Deinem Hostingprovider.

Feature Highlight: Die Business-Relevant Pages

Tagge Deine SEO-Landingpages als „Business-Relevant“ und beobachte, ob der Googlebot sie crawlt und ich welcher Intensität. Hier siehst Du auf einen Blick, wo der Googlebot seine Ressourcen verschwendet. Wenn Du die einzelnen Requests ansehen willst, klicke einfach auf einen der Balken und Du bekommst direkt die vorgefilterten Rohdaten (im Logfile Exporer). Teste dieses Feature jetzt mit dem kostenlosen Demo-Account!

Die beiden Herzstücke des Tools

Die beiden Herzstücke des crawlOPTIMIZERs sind das Dashboard und der Logfile-Explorer

1. Übersichtliches Dashboard

Unser Dashboard beinhaltet basierend auf Deinen Logdaten fertige Auswertungen und KPIs, um Deinen Arbeitsalltag maximal zu erleichtern. Die extrem zeitintensiven, manuellen Logfile-Analysen mittels Excel oder ELK (Elasticsearch, Logstash, Kibana) sind ab sofort obsolet, denn im Dashboard sind alle wichtigen KPIs bereits vordefiniert und grafisch aufbereitet. Die KPIs & Auswertungen wurden so aufbereitet, dass sie selbst für Personen ohne SEO-Background verständlich sind.


• Crawl-Budget Statistik & Verschwendung des Crawl-Budgets
• Status Codes & Crawling-Statistiken
• Crawling von Business-relevanten Seiten
• Top-50 gecrawlte URLs & Ressourcen
• Top-10 gecrawlte Verzeichnisse & Produkte
• Gecrawlte Content-Typen, Parameter & http(s)
• Crawling-Frequenzen einzelner Pages
• Noch nicht gecrawlte Pages
• XML-Sitemap Check
• Darstellung unterschiedlicher Googlebots

Business-relevant measurements | crawlOPTIMIZER

2. Der Logfile-Explorer

Jeder, der schon einmal Logfile Analysen mit Excel probiert hat, kennt die damit verbundenen Probleme: Größere Logfiles ab einer Million Zeilen können schlichtweg nicht mehr verarbeitet werden. Dadurch war man immer gezwungen, nur eine kleine, zeitliche Momentaufnahme des Google-Bots zu analysieren. Die Lösung: der Logfile-Explorer des crawlOPTIMIZERs. Unbegrenzte Datenmengen werden problemlos verarbeitet.
Verarbeitung nahezu unbegrenzt großer Datenmengen

Da Deine Logdaten auf unseren Hochleistungs-Servern automatisch verarbeitet & archiviert werden, kannst Du jederzeit und von überall aus darauf zugreifen. So kannst Du Langzeitanalysen & rückwirkende Analysen mühelos bewerkstelligen.

Einfache, unendliche Filtermöglichkeiten + Exportfunktion

Unser Logfile-Explorer bietet Dir einfache Filtermöglichkeiten, um so individuelle Analysen und Auswertungen zu erstellen. Mit nur wenigen Klicks kannst Du Deine benötigten Daten & Informationen ziehen. Zudem kannst Du Deine Abfragen als Quick-Filter abspeichern. Deine (gefilterten) Logdaten kannst Du jederzeit als XLSX- oder CSV-File exportieren.

Google Search Console API

Du kannst Dein(e) Projekt(e) mit nur einem Klick mit der Google Search Console verbinden. Dadurch werden Deine Logdaten mit Search-Daten angereichert (Clicks, Impressions, CTR, etc.). Yeah!

Logfile Explorer | crawlOPTIMIZER

Datamining dank GSC API

Google Search Console API

Preise & Pakete

Limitiertes Angebot für die gesamte Vertragslaufzeit. Angebot gültig bis einschließlich 15.11.2019.

Du brauchst mehr als 500.00 Requests pro Tag oder möchtest das Tool für Deine Agentur nutzen? Dann lass Dir ein maßgeschneidertes, individuelles Angebot legen. Nimm gleich jetzt Kontakt mit uns auf!

✔ So einfach bestellst Du online

1. Passenden Tarif wählen
2. „Bestellen“-Button klicken
3. Online-Formular ausfüllen & absenden
4. Nach Bestelleingang klären wir ggf. noch offene Fragen
5. Sobald alles klar ist, bestätigen wir Deine Bestellung per E-Mail

Und schon starten wir mit dem Aufsetzen Deines Accounts. Die Verrechnungsperiode beginnt erst, sobald Dein Account komplett funktionstüchtig aufgesetzt ist. Let´s rock!

* 7 Tage risikolos testen (gültig für jeden Tarif)

 

Du trägst keinerlei Risiko: Nach Vertragsabschluss und sobald wir Deinen persönlichen Account komplett funktionstüchtig aufgesetzt haben, kannst Du den crawlOPTIMIZER für 7 Tage kostenlos testen (Für diesen Testzeitraum importieren / analysieren wir 35% Deiner Logfiles). Wir informieren Dich selbstverständlich darüber, sobald der Testzeitraum beginnt. Innerhalb dieser 7 Tage kannst Du den Vertrag jederzeit stornieren. Wie? Eine kurze E-Mail an info@crawloptimizer.com mit dem Stornierungsgrund reicht aus. Für diesen Zeitraum fallen natürlich keine Kosten an und der abgeschlossene Vertrag wird unmittelbar wieder storniert. Wenn Dich die Funktionen überzeugen, wovon wir schwer ausgehen, und Du nicht innerhalb dieser 7 Tage stornierst, wird der zuvor abgeschlossene Vertrag ab dem 8. Tag bindend und Deine Logs werden 100% importiert. Let´s rock!

Hinweis

Verkauf nur an Unternehmer
Die oben genannten Preise beinhalten keine Umsatzsteuer. Für mehr Informationen schreibe uns einfach oder rufe unter +43 (1) 577 35 49 an.

Kontakt

Du benötigst Hilfe oder hast Fragen? Kontaktiere uns!


Ich habe die Datenschutzbestimmungen gelesen und
akzeptiere diese mit meinem Klick auf den Button "Jetzt senden".




Weitere Kontaktmöglichkeiten

Hinterlasse uns einfach eine Nachricht auf Skype oder WhatsApp.
Chat with me
Chat with me

Anmeldung zum Newsletter

Rund um´s Crawling immer up2date bleiben

Entdecke regelmäßig aktuelle Trends & News rund um das Crawling und sicher Dir exklusive Informationen.

Ja, ich möchte den Newsletter mit Informationen zum Thema Crawling, dem crawlOPTIMIZER (neue Features, Erklärungen & Analyseanleitungen) sowie den Leistungen von eCom VIKINGS, abonnieren. Meine Einwilligung kann ich jederzeit kostenfrei mittels Link im Newsletter für die Zukunft widerrufen. Weitere Informationen habe ich der Datenschutzerklärung entnommen.

BABY WALZ
XXXLUTZ
JAKO-O
MÖBELIX
PLANET SPORTS
MÖMAX