Sichtbarkeit in Google steigern dank Crawl-Budget Optimierung

Das neue SEO-Tool crawlOPTMIZER hilft Dir bei Deiner Crawl-Budget Optimierung, um den Googlebot möglichst präzise & effizient durch Deine Webseite zu steuern.

Welche Deiner Webseiteninhalte werden von Google erfasst?

Du hast keine Antwort auf diese Frage?

Dann bist Du bei uns genau richtig. Ein Blick in Deine Logfiles ist goldwert!

Jedes Suchmaschinen-Ranking setzt immer ein Crawling voraus – doch weißt Du, welche Inhalte Deiner Webseite der Googlebot crawlt?

 

Das neue SaaS-Tool crawlOPTIMIZER liefert automatisiert wertvolle Insights aus Deinen Logfiles, wie Google Deine Webseite erfasst. Es zeigt Dir auf einen Blick, welche Inhalte vom Googlebot ausgelesen werden und ob wichtige Inhalte unter Umständen gar nicht gecrawlt werden. Um Langzeitanalysen zu ermöglichen, können auf Wunsch Deine Logfiles bis zu 5 Jahre lang gespeichert werden. Alle Maßnahmen verfolgen das Ziel, den unbezahlten Suchmaschinen-Traffic zu steigern.

 Alle Googlebot-Aktivitäten rund um die Uhr im Blick

Dashboard mit fixfertigen & verständlichen Auswertungen

Kein spezifisches SEO-Logfile-Know-how nötig

Manuelle Analysen & Reports dank Logfile Explorer

Langzeitanalysen bis 5 Jahre dank cloudbasierter Lösung

Ultra einfache & schnelle Übermittlung der Logfiles

Einmaliges, einfaches Andocken – Deine IT wird uns lieben

Dashboard crawlOPTIMIZER

crawlOPTIMIZER analysiert & speichert Logfiles automatisch

Der crawlOPTIMIZER analysiert vollautomatisiert die Logdaten des Googlebots und archiviert diese auf einem abgesicherten Server in Deutschland bis zu 5 Jahre lang. In unserem übersichtlichen crawlOPTIMIZER Dashboard hat man die Aktivitäten des Googlebots rund um die Uhr im Blick. Dank der Logdatenspeicherung und dem von uns entwickelten Logfile-Explorer sind selbst rückwirkende Analysen jederzeit und problemlos möglich.
Fix & fertige Auswertungen

Vordefinierte Analysen & Auswertungen helfen selbst SEO-fremden Personen Crawling-Probleme mühelos aufzudecken.

Serverstandort Deutschland & 100% DSGVO konform

Es werden ausnahmslos nur die Logdaten des Googlebots analysiert & gespeichert. Keine userbezogenen Daten! Alle Vorgaben der DSGVO werden eingehalten.

John Müller

Webmaster Trends Analyst bei Google

„Log files are so underrated, so much good information in them.“ (Twitter)

John Müller

Prof. Dr. Dominik Große Holtforth

Experte für E-Commerce

„[…] Wie man sieht, sind Crawlability und das Crawl Budget mehr als ein SEO Mythos, sondern eine handfeste Optimierungsaufgabe. Da sie eher abstrakt ist, gerät sie unter Umständen eher ins Hintertreffen als konkrete Onsite-Optimierungsmaßnahmen. Diese laufen allerdings ins Leere, wenn man die Qualität der Website aus der Crawlingperspektive nicht im Auge behält.“ Zur Originalquelle

Für wen ist der crawlOPTIMIZER?

Logfile Analysen aus SEO-Sicht liefern unerkannte Optimierungspotenziale für jeden Digital-Marketer

1. Zielgruppe

crawlOPTIMIZER richtet sich an alle Personen, die den unbezahlten Suchmaschinen-Traffic in Unternehmen verantworten und wenig Zeit für ausführliche, regelmäßige Logfile-Analysen haben oder über kein spezifisches Know-how verfügen. Beispiele:

• Head of SEO
• SEO-Manager
• Head of Online Marketing
• Online Marketing Manager
• Head of e-Commerce
• e-Commerce Manager
• Webmaster / IT-Admins
• SEO-Agenturen

2. Webseiten

crawlOPTIMIZER wurde speziell für Webseiten ab einer Größe von einigen tausend Pages entwickelt oder Online-Unternehmungen, die großes Interesse an einer Steigerung des unbezahlten Suchmaschinen-Traffics haben. Beispiele:

• Online-Shops
• e-Commerce Webseiten
• Informationswebseiten
• News-Portale
• Große Blogs / Foren etc.

Wozu brauche ich den crawlOPTIMIZER?

Der klassische SEO-Prozess einfach erklärt

Ohne Crawling gibt es keine Indexierung und somit auch keine Platzierung in den Google-Suchergebnissen.

Deine Webseite kann nur über die Google-Suche gefunden werden, wenn sie vorab in den Google-Index aufgenommen wurde. Für diesen Zweck crawlt (=durchsucht) der Googlebot (auch Spider genannt) täglich alle verfügbaren Webseiten weltweit, auf der Suche nach neuen und aktualisierten Inhalten.

Mit Hilfe diverser Onsite-Optimierungsmaßnahmen kannst Du einen gewissen Einfluss auf den Crawling-Prozess nehmen und somit bestimmen, welche Inhalte in den Google-Index aufgenommen und welche Inhalte häufiger gecrawlt werden sollen.

Nur die Webserver-Logfiles geben Aufschluss darüber, welche und wie häufig der Googlebot Inhalte crawlt. Daher sollte ein kontinuierliches Crawling-Monitoring in allen größeren Online-Unternehmungen zum Standard werden. Für diesen Zweck wurde der crawlOPTIMIZER entwickelt, getreu dem Motto: Keep it as simple as possible.

SEO-Prozess

„Der Google-Bot ist der Webcrawler (auch „Spider“ genannt) von Google. Crawling wird der Prozess genannt, durch den der Google-Bot neue und aktualisierte Seiten ermittelt, damit sie dem Google-Index hinzugefügt werden können.“ Quelle: Google Search Console

Welchen Sinn & Zweck erfüllt der crawlOPTIMIZER?

Alle Maßnahmen sollen der Steigerung des unbenzahlten Suchmaschinen-Traffics dienen

1. Crawling kostet Google Geld

„Wenn Sie Google-Produkte verwenden, erledigen die Server in unseren Rechenzentren die Arbeit für Sie – weltweit und rund um die Uhr. Unsere Server unterstützen viele Produkte gleichzeitig. Dies ist die so genannte „Cloud“. Indem wir unsere Server ständig beschäftigen, können wir mit weniger Aufwand mehr erledigen […]“, Quelle: Google

 

• Google betreibt weltweit 15 Rechenzentren

• Betriebskosten pro Jahr 10+ Mrd. USD

• Das Crawling von Webseiten kostet Google besonders viel Geld

• Auch Deine Server-Ressourcen werden durch ein unnötigs Crawl-Aufkommen stark belastet

2. Nutzen & Mehrwert

crawlOPTIMIZER liefert wertvolle Insights, wie Google Deine Webseite erfasst, d.h. welche Inhalte von Google „ausgelesen“ werden können und welche nicht. Relevant sind diese Informationen, da es ohne Crawling kein Ranking und folglich keinen Suchmaschinen-Traffic gibt. Beispiele:

• Wo ver(sch)wendet Google Ressourcen?
• Werden meine wichtigen Inhalte gecrawlt?
• Welche Inhalte werden gar nicht gecrawlt?
• Hat der Googlebot Probleme beim Crawling?
• Wo gibt es Optimierungspotenziale?
• uvm.

3. Ziel einer Crawl-Optimierung

Ein nahezu vollständiger Crawl der gesamten Webseite in akzeptabler Zeit

✔ Neue und geänderte Inhalte sollen möglichst schnell im Google-Index aufgenommen werden

✔ Schonender & effizienter Umgang mit Ressourcen (Serverinfrastruktur, Traffic etc.), sowohl intern, als auch bei Google

✔ Fehler der eigenen Webseite bzw. Infrastruktur aufdecken und beseitigen

✔ Stärkung der Marke

✔ Folglich: Steigerung der Sichtbarkeit & des Traffics

Highlights

Was den crawlOPTIMIZER so besonders macht

Googlbot Aktivitäten

Sehen und verstehen welche Seiten von Google gecrawlt werden. Ziel: Maßnahmen ableiten, die das Crawling verbessern können.

Fertige Analysen & Auswertungen

Das Herzstück des Tools ist das Dashboard mit den fixfertigen & relevanten Auswertungen. Durch dieses Dashboard ersparst Du Dir extrem viel Deiner kostbaren Zeit.

Datenspeicherung bis zu 5 Jahre

Endlich sind rückwirkende Logfile Analysen ohne Aufwand möglich! Dank der Logdatenspeicherung in einer sicheren Cloud. Jederzeit und überall abrufbar.

Einfach & verständlich

 Alle vordefinierten Analysen & Auswertungen sind so aufgebaut, dass sie möglichst alle verstehen – selbst ohne spezifischem SEO-Background!

Schnelle & einfache Anbindung

Um möglichst einfach Deine Logdaten ziehen zu können, haben wir mehrere Alternativen erarbeitet. Das einmalige Setup wird so zum Kinderspiel.

24/7 Support

Bei Fragen stehen wir Dir jederzeit zur Seite. Sehr gerne unterstützen wir Dich beim erstmaligen Setup. Zudem kommunizieren wir gerne auch direkt mit Deiner IT oder mit Deinem Hostingprovider.

Einzigartige Features

Die beiden Herzstücke des crawlOPTIMIZERs sind das Dashboard und der Logfile-Explorer

Übersichtliches Dashboard + KPIs

Unser Dashboard beinhaltet basierend auf Deinen Logdaten fertige Auswertungen, um Deinen Arbeitsalltag maximal zu erleichtern. Die extrem zeitintensiven, manuellen Logfile-Analysen mittels Excel oder ELK (Elasticsearch, Logstash, Kibana) sind ab sofort obsolet, denn im Dashboard sind alle wichtigen KPIs bereits vordefiniert und grafisch aufbereitet. Die KPIs & Auswertungen wurden so aufbereitet, dass sie selbst für Personen ohne SEO-Background verständlich sind.


• Crawl-Budget Statistik & Verschwendung des Crawl-Budgets
• Status Codes & Crawling-Statistiken
• Crawling von Business-relevanten Seiten
• Top-50 gecrawlte URLs & Ressourcen
• Top-10 gecrawlte Verzeichnisse & Produkte
• Gecrawlte Content-Typen, Parameter & http(s)
• Unterschiedliche Googlebots

Business-relevant measurements | crawlOPTIMIZER

Der Logfile-Explorer

Jeder, der schon einmal Logfile-Analysen mit Excel probiert hat, kennt die damit verbundenen Probleme: Größere Logfiles ab einer Million Einträgen können schlichtweg nicht mehr verarbeitet werden. Dadurch war man immer gezwungen, nur eine kleine, zeitliche Momentaufnahme des Google-Bots zu analysieren. Die Lösung: der Logfile-Explorer des crawlOPTIMIZERs.
Verarbeitung nahezu unbegrenzt großer Datenmengen

Da Deine Logdaten auf unseren Hochleistungs-Servern automatisch abgespeichert & archiviert werden, kannst Du jederzeit und von überall aus darauf zugreifen. So kannst Du Langzeitanalysen & rückwirkende Analysen mühelos bewerkstelligen.

Einfache Selektierung & Filtermöglichkeiten

Unser Logfile-Explorer bietet Dir einfache Filtermöglichkeiten, um so individuelle Analysen und Auswertungen zu erstellen. Mit ein paar Klicks kannst Du Deine benötigten Daten & Informationen ziehen.

Logfile Explorer | crawlOPTIMIZER

Preise & Pakete - Aktion nur noch bis 26.10.18

AKTION NUR NOCH bis 26.10.2018:
Schnell zugreifen! Einmalige Eröffnungsangebote für die gesamte Vertragslaufzeit

Verkauf nur an Unternehmer
Die oben genannten Preise beinhalten keine Umsatzsteuer.
Für mehr Informationen schreibe uns einfach oder rufe unter +43 (1) 577 35 49 an.

Kontakt

Du benötigst Hilfe oder hast Fragen? Kontaktiere uns!


Ich habe die Datenschutzbestimmungen gelesen und
akzeptiere diese mit meinem Klick auf den Button "Jetzt senden".



Weitere Kontaktmöglichkeiten

Anmeldung zum Newsletter

Rund um´s Crawling immer up2date bleiben

Entdecke regelmäßig aktuelle Trends & News rund um das Crawling und sicher Dir exklusive Informationen.

Ja, ich möchte den Newsletter mit Informationen zum Thema Crawling, dem crawlOPTIMIZER (neue Features, Erklärungen & Analyseanleitungen) sowie den Leistungen von eCom VIKINGS, abonnieren. Meine Einwilligung kann ich jederzeit kostenfrei mittels Link im Newsletter für die Zukunft widerrufen. Weitere Informationen habe ich der Datenschutzerklärung entnommen.