Onpage Crawler und weitere Tools von SEO-Urgestein Thomas Zeithaml

1. Hallo Thomas, magst Du Dich unseren Lesern einmal vorstellen? Wer bist Du was machst Du?
Hallo Fabian, mein Name ist Thomas Zeithaml und ich bin 38 Jahre alt. Mein Background ist der klassische IT-Bereich und ich beschäftige mich seit 2001 mit dem Thema SEO. Anfangs habe ich mich vorwiegend um eigene Projekte gekümmert und versuchte dort die Grenzen auszuloten. Du kennst das 😉 2007 arbeitete ich ein Jahr als Head of SEO bei Stefan Fischerländer, bevor ich zu einer großen Augsburger Agentur wechselte. Dort habe ich Timo Hahn kennengelernt, mit dem ich 2010 die Agentur Seoratio ins Leben gerufen habe. Bei uns steht der Spaß an der Tätigkeit im Vordergrund. Wir wollen nah an der Materie bleiben und vor allem Sachen machen, die uns selbst Freude bereiten. Eine große Agentur mit vielen Mitarbeitern zu werden, gehört zum Beispiel nicht dazu.

2. Also ein ganz alter SEO-Hase. Klasse! Du kannst ja auch programmieren und hast auch ein Onpage Tool. Wie lange gibt es das schon?
Programmieren macht mir Spaß und ist für mich eine gute Abwechslung zum typischen Marketing. Dazu kommt, dass durch die Programmierung ein sehr gutes technisches Verständnis für die Probleme und Verfahren von Suchmaschinen zustande kommt. 2005 habe ich mein erstes kleines SEO-Tool mit Namen “Spider Trap” gebastelt und mich dadurch schon sehr früh mit dem Thema „Crawling“ beschäftigt. Ich finde den gesamten Aufbau des Netzes sehr spannend und es ist einfach nur bewundernswert, mit welchen Daten und Strukturen Google mittlerweile arbeitet. Vielen neuen SEOs fehlt oft das technische Verständnis dafür, wie eine Suchmaschinen Daten erhebt und aufbereitet. Genau dies sehe ich als meine persönlich Stärke an und fokussiere mich deshalb auf dieses Thema.
Anfang 2006 begann ich, einen eigenen Crawler zu entwickeln. Hauptziel war es damals, ausgelaufene Domains – also Expireds – zu finden. Diese konnte man damals noch leicht projektieren und monetarisieren.
Schnell hab ich aber gemerkt, dass ich hier nur an der Oberfläche kratzte. Damals tauschte man ja noch wie wild Links. Tools für eine schnelle Domainbewertung – etwa Sistrix oder Searchmetrics gab es auch noch nicht. Aus diesem Grund haben wir uns früher noch auf den Toolbar PR verlassen und eben 2x PR4 gegen einen PR5 getauscht. Aus der Not heraus habe ich dann meinen Crawler erweitert, um mir die Pagerank Daten zu jeder Seite ermitteln zu können. So konnte ich schnell erkennen, wo der Linktauschpartner seine PR-starken Seiten hatte. Pagerank alleine war ja nicht aussagekräftig, da er sich durch die Anzahl der Links teilt. Zudem habe ich mir gleich noch die Anzahl der Links der Seiten geholt. So konnte ich eine Metrik erheben, wie viel Linkjuice zu meinen Projekten transportiert werden konnte.
Das war auch der Grundstein für die Idee zum Tool. Von 2007 bis 2009 hatte ich dann neben der Arbeit mein Tool so erweitert, dass ich damit Domains mit 250 000 Seiten crawlen konnte. Als ich 2010 mit Timo die Seoratio gründete, überlegten wir uns als erstes, wie wir gerne unseren Arbeitstag gestalten würden. Mein erster Gedanke war „an dem Tools weiter entwickeln!“ Zudem ist ein eigenes Tool natürlich auch ein schöner USP. Bei Analysen sieht man unter Umständen Hebel, die andere Agenturen aufgrund mangelnder Daten nicht so einfach sehen können wie wir. Seitdem entwickeln wir also fleißig an den Tools.

3. Wow, damit bist Du ja wirklich das aller erste Onpage Tool im deutschen Markt. Warum hast Du es solange geheim gehalten?
Hier muss man vielleicht die Entwicklung des Tools berücksichtigen. Zuerst war es wegen den Expireds ja gedacht, viele Webseiten parallel zu crawlen und nicht tief in eine Domain einzutauchen. Das hat sich in der Zwischenzeit geändert. Es war hauptsächlich für den Eigenbedarf gedacht, sodass wir als Agentur mit den Zahlen arbeiten und einen Vorteil draus ziehen konnten. In einem Vortrag auf der SEOCampixx habe ich dann ein paar Daten aus den Tools gezeigt. Ab da war es dann kein Geheimnis mehr. Darauf hin haben mich die Kollegen Jens Fauldrath, Nico Sacotte und Kai Spriestersbach angesprochen. Nach ein paar Bierchen hab ich einige Zugänge eingerichtet. Eigentlich hatten wir damals gar nicht die Möglichkeit dazu! Wir hatten weder eine Rechteverwaltung, Multiuser Accounts oder gar ein vernünftiges Layout. Dazu kam, dass das System natürlich nicht darauf ausgelegt war, von vielen Usern genutzt zu werden. Innerhalb der Szene haben sich die Seoratio dann doch unter der Hand verbreitet.
Auf dem Seoday 2013 hab ich mich dann entschlossen, es “public” zu machen und es anderen SEOs zur Verfügung zu stellen. Gerade seit das Panda und Pinguin Update in unserem Bereich für einige Verunsicherung gesorgt hat, ist die Nachfrage für Struktur- und Onpage-SEO stark angestiegen. Ziel ist es aber nicht, ein weiteres reines Onpage Tool auf den Markt zu bringen. Vielmehr will ich es als Spezial- oder Nischentool platzieren. Die Auswertungen sind schon sehr speziell und für unerfahrene User vielleicht nicht gleich verständlich. Erst wenn man sich mal ausführlich mit der Materie beschäftigt, erkennt man das Potential, dass sich hinter dem Tool bzw. den Daten verbirgt. Es ist halt schön zu sehen, dass viele SEO Größen die SeoratioTools wirklich selbst nutzen und auch weiter empfehlen. Ich will aber in erster Linie nicht in den Massenmarkt, sondern eher wenige Kunden mit denen ich mich austauschen kann, um noch besser zu werden.

4. Was kostet denn denn?
Unsere Zielgruppe sind vor allem Seitenbetreiber von größeren Domains, die wir bei Bedarf auch mit Beratung unterstützen. Die interne Verlinkung wird erst bei Domains ab 10.000 Unterseiten ein Hebel. Kleinere Webseiten haben selten strukturelle Probleme die nicht einfach zu lösen wären. Ebenso ist die Gewichtung noch nicht so entscheidend. Aber gerade bei großen Seiten geht leicht der Überblick verloren, was durch ein Tool erleichtert werden soll.
Wir haben aktuell zwei Abrechnungsmodelle. Für Webseitenbetreiber besteht die Möglichkeit einen Crawl zu beauftragen der dann je nach Seitengröße und Crawlvolumen abgerechnet wird. Wir bieten also kein Abo-Modell an, sondern rechnen jeden Crawl einzeln ab. Wir haben vier verschiedene Crawlvolumina die bis max. 10 Mio. Seiten reichen. Darüber macht es unserer Erfahrung nach wenig Sinn noch tiefer zu crawlen. Für Agenturen bieten wir ein Agenturmodell an, in dem die Möglichkeit besteht, mehrere Domains zu crawlen und z.B. einen Kundenzugang zu gewähren. Die Abrechnung erfolgt über das monatliche verbrauchte Volumen. Aber auch das Agenturmodell ist nicht über ein Abo geregelt.

5. Verstehe. Was planst Du denn noch alles an Funktionen in Deinem Tool? Worauf dürfen wir uns freuen?
Ich möchte natürlich noch nicht zu viel verraten, was wir noch alles in der Pipeline haben. Ich sag aber mal so: Durch die Crawldaten haben wir Zugriff auf den gesamten Inhalt einer Domain und können darüber natürlich auch Analysen fahren. Denkbar sind natürlich eine Duplicate Content Erkennung – Zwinker – oder die jeweilige Term-Gewichtungen. Wo behindern sich also intern Seiten durch gleiche Inhalte oder Ausrichtungen. Genauso wollen wir noch im Bereich der Themencluster tiefer in eine Domain eintauchen, da hier noch einige Optimierungshebel zu finden sind. Zudem arbeite ich gerade an einer besseren Visualisierungsform um die Verbindungen übersichtlicher darstellen zu können. Dazu kommen natürlich viele Kundenideen und Wünsche.
6. Thomas, ich danke Dir für das Interview. Habe ich noch etwas vergessen?
Eigentlich nicht. Vielen Dank auch von meiner Seite für das Interview.

>