HTML vs. AIDI: Warum die Zukunft hybrid sein wird
HTML vs. AIDI: Warum die Zukunft hybrid sein wird - Eine Antwort auf Mario Fischers visionären Artikel
Mario Fischer hat mit seinem Artikel "The end of the web? Goodbye HTML, hello AIDI!" eine Diskussion angestoßen, die jeden SEO, jeden Publisher und jeden, der im Web arbeitet, beschäftigen sollte.
Was für ein visionärer Artikel! Was für eine mutige These! Was für eine wichtige Diskussion!
Wenn Mario Fischer – einer der renommiertesten SEO-Experten Deutschlands und Herausgeber des bekannten Print-Magazins Website Boosting – in einer internationalen Publikation wie Search Engine Land schreibt, dass das Web, wie wir es kennen, verschwinden könnte, dann sollten wir alle zuhören. Als Veranstalter des SEODAY Cologne und jemand, der täglich mit der Zukunft der Suchmaschinenoptimierung ringt, möchte ich Mario Fischer zunächst loben: Es ist beeindruckend, dass ein deutscher Autor solche tiefgehenden, visionären Fachbeiträge in einer internationalen Publikation veröffentlicht. Das zeigt nicht nur Expertise, sondern auch Mut, kontroverse Thesen zu formulieren.
Aber ich sehe die Zukunft anders – und das ist gut so! Denn nur durch kontroverse Diskussionen finden wir die besten Lösungen.
Kernaussage: Die Zukunft wird nicht "entweder HTML oder AIDI" sein, sondern eine intelligente Kombination beider Welten. HTML bleibt als transparente Basis, während AIDI und MCP-Systeme die User Experience revolutionieren.
Eine persönliche Einschätzung – Stand November 2025
Wichtig: Das, was ich hier schreibe, ist meine persönliche Einschätzung – so, wie ich die Dinge jetzt im November 2025 sehe. Das bedeutet nicht, dass ich in einer Woche, einem Monat oder einem Jahr noch genauso denke.
Frei nach unserem alten Bundeskanzler: "Was kümmert mich mein Geschwätz von gestern" – die Technologie entwickelt sich so rasant, dass sich auch meine Sichtweise schnell ändern kann. Wenn ich nächste Woche eine andere Idee habe, wie die Zukunft aussehen könnte, dann werde ich das hier natürlich auch entsprechend kommunizieren und aktualisieren.
Das ist keine wissenschaftliche Abhandlung, sondern ein Denkanstoß – eine Momentaufnahme meiner Gedanken zu einem Zeitpunkt, an dem sich alles fundamental verändert. Ich lade euch ein, mit mir zu diskutieren, zu widersprechen, neue Perspektiven einzubringen. Denn nur so finden wir gemeinsam die besten Lösungen.
Inhaltsverzeichnis
001. Warum HTML nicht verschwinden wird: Das Argument der Überprüfbarkeit
002. Die Gesellschaft wird geschlossene Systeme nicht zulassen
003. MCP-Systeme: Die technische Brücke zwischen HTML und Agenten
004. Das TKP-Modell: Monetarisierung durch Datenqualität
005. Verticals werden KI massiv nutzen
006. Die Frage an die Branchengrößen
007. Fazit: Eine hybride Zukunft
Warum HTML nicht verschwinden wird: Das Argument der Überprüfbarkeit
Mario Fischers Kernaussage ist klar: Das Web, wie wir es kennen, könnte verschwinden. Anstelle von HTML-basierten Websites werden AIDI (AI Data Interfaces) treten, die personalisierte Agenten mit strukturierten Daten füttern. Die User Experience wird revolutioniert – schneller, personalisierter, effizienter.
Ich teile Marios Begeisterung für diese Vision, sehe aber eine andere Zukunft: eine hybride Lösung.
Das zentrale technische Argument für den Fortbestand von HTML ist die Überprüfbarkeit. HTML-Inhalte sind transparent, crawlbar und nachvollziehbar. Jeder kann den Quellcode einer Website einsehen, verstehen, was dort steht, und die Informationen verifizieren.
Geschlossene Systeme hingegen entziehen sich dieser Kontrolle. Wenn Informationen nur noch über Agenten-Schnittstellen verfügbar sind, die von zentralen Plattformen kontrolliert werden, verlieren wir als Gesellschaft die Fähigkeit, Inhalte unabhängig zu überprüfen.
Das ist kein theoretisches Problem. Stellen Sie sich vor, eine KI-Agent-Plattform entscheidet, bestimmte Informationen nicht mehr anzuzeigen – aus welchen Gründen auch immer. Ohne HTML als transparente Basis haben wir keine Möglichkeit mehr, diese Informationen direkt zu verifizieren. Die Kontrolle liegt dann vollständig bei den Plattformbetreibern.
HTML vs. AIDI: Ein direkter Vergleich
Pros und Contras im Detail
HTML: Die Vorteile
HTML: Die Nachteile
AIDI: Die Vorteile
AIDI: Die Nachteile
Die Gesellschaft wird geschlossene Systeme nicht zulassen
Wir haben aus dystopischen Szenarien gelernt. Filme wie "Terminator" oder "Matrix" haben uns gezeigt, was passiert, wenn wir die Kontrolle an intelligente Systeme abgeben. Die Gesellschaft ist sich dieser Risiken bewusst und wird einen totalen Kontrollverlust nicht zulassen.
Solange Menschen die Möglichkeit haben wollen, Informationen unabhängig zu verifizieren, wird HTML als Basis bestehen bleiben. Das bedeutet nicht, dass Agenten und AIDI nicht kommen werden – sie werden kommen, aber sie werden auf HTML und offenen Standards aufbauen.
Wichtige Erkenntnis: Geschlossene Systeme ohne HTML-Basis würden uns in eine Situation bringen, in der wir die Kontrolle über Informationen verlieren. Die Gesellschaft wird das nicht zulassen – zu groß ist das Bewusstsein für die Risiken eines totalen Kontrollverlusts.
MCP-Systeme: Die technische Brücke zwischen HTML und Agenten
Aus technischer Sicht glaube ich vor allem an MCP-Systeme (Model Context Protocol). Das Entscheidende: ChatGPT hat sich für externe MCP-Server geöffnet. Das bedeutet, dass jeder von außen einen eigenen MCP-Server implementieren kann, der dann direkt in ChatGPT integriert wird.
Sam Altman hat auf den OpenAI DevDays 2025 im Oktober 2025 genau diese Vision skizziert. In seiner Keynote kündigte er an, dass ChatGPT sich für externe MCP-Server öffnet und ein Vermietungsmodell auf TKP (Tausend-Kontakt-Preis) basiert.
Wie funktioniert das konkret?
- Externe MCP-Server: Jeder kann von außen einen eigenen MCP-Server implementieren und betreiben
- Integration in ChatGPT: Dieser MCP-Server wird direkt in das ChatGPT-UI integriert
- HTML-Auslieferung: Der MCP-Server kann HTML-Inhalte durch das MCP-Protokoll ausliefern
- Darstellung in ChatGPT: Die HTML-Inhalte werden dann innerhalb von ChatGPT dargestellt – nicht auf Ihrer eigenen Domain, sondern im ChatGPT-Interface
Das Verrückte daran: Wenn Sie einen eigenen MCP-Server implementieren, kann ChatGPT Ihr HTML ausliefern und darstellen – aber es wird innerhalb von ChatGPT angezeigt, nicht auf Ihrer eigenen Domain. Es ist also eine Art "eigene Website", aber doch nicht, weil sie keine eigene Domain hat. Die HTML-Quellen bleiben jedoch weiterhin auf Ihrer Domain zugänglich und crawlbar.
Praktisches Beispiel: Ein Jobportal könnte einen MCP implementieren, der Jobdaten strukturiert bereitstellt. ChatGPT kann diese Daten dann intelligent aufbereiten und Nutzern präsentieren – aber die originalen HTML-Jobseiten bleiben weiterhin auf der eigenen Domain zugänglich und crawlbar.
Praxisbeispiel: Hotel-Suche mit MCP
Das Problem: Nutzer suchen nach Hotels in Berlin, die Hunde erlauben, einen Parkplatz haben und Frühstück inklusive bieten. In klassischen Suchmaschinen müssen sie mehrere Websites durchsuchen und die Informationen manuell vergleichen.
Die Lösung mit MCP:
- HTML-Ebene: Hotels stellen ihre Informationen transparent auf ihrer Website bereit: "Grand Hotel Berlin - Hunde erlaubt: ✓, Parkplatz: ✓, Frühstück: ✓"
- MCP-Ebene: Ein MCP-Server strukturiert diese Daten:
{"hotel": "Grand Hotel Berlin", "dogs_allowed": true, "parking": true, "breakfast_included": true} - KI-Agent-Ebene: Ein Reise-Agent kann nun direkt fragen: "Finde Hotels in Berlin, die Hunde erlauben" und erhält sofort passende Ergebnisse
Der Vorteil: Der Nutzer spart Zeit, bekommt präzise Antworten, und die Hotel-Websites bleiben transparent und crawlbar. Das ist ein wertvolles Beispiel, das es so noch nicht gibt – eine intelligente Suche, die auf transparenten HTML-Quellen basiert.
Praxisbeispiel: Restaurant-Suche mit detaillierten Filtern
Das Problem: Jemand sucht ein Restaurant mit veganen Optionen, glutenfreien Gerichten und einer Terrasse. Aktuell muss man durch viele Restaurant-Websites scrollen oder auf unvollständige Datenbanken vertrauen.
Die Lösung mit MCP:
- HTML-Ebene: "La Trattoria" listet auf ihrer Website: "Vegan: ✓, Glutenfrei: ✓, Terrasse: ✓"
- MCP-Ebene: Strukturierte Daten:
{"restaurant": "La Trattoria", "vegan_options": true, "gluten_free": true, "terrace": true} - KI-Agent-Ebene: "Zeig mir Restaurants mit veganen Optionen und Terrasse" → Sofort 5 passende Restaurants
Der Mehrwert: Diese detaillierten Informationen sind heute oft nicht strukturiert verfügbar. MCP macht sie zugänglich, während die Restaurant-Websites ihre Transparenz behalten.
MCP-Systeme: Die technischen Vorteile
MCP vs. reine AIDI: Der Unterschied
Das TKP-Modell: Monetarisierung durch Datenqualität
Sam Altman hat noch nicht genau gesagt, wie das TKP-Modell im Detail funktioniert, aber die Idee ist klar: Hochwertige Datenanbieter werden für die Bereitstellung qualitativ hochwertiger Informationen bezahlt. ChatGPT wird besser, weil es auf bessere Daten zugreift, und die Datenanbieter werden für ihre Qualität belohnt.
Das ist ein sehr schlauer Schachzug von OpenAI. ChatGPT kann nicht allein mit schlauen Agenten die Tiefe und Qualität erreichen, die menschliche Experten liefern können. In den nächsten Monaten und Jahren braucht OpenAI die Schwarm-Power und Schwarm-Intelligenz der Community. Deshalb appelliert Altman an uns alle, hochwertige Daten bereitzustellen.
TKP-Modell im Detail: Das Tausend-Kontakt-Preis-Modell funktioniert ähnlich wie klassisches Affiliate-Marketing. Datenanbieter werden pro 1.000 Kontakten (Nutzungen) bezahlt. Je höher die Qualität der Daten, desto höher der TKP. Das schafft Anreize für hochwertige, verlässliche Informationen.
Die Frage ist natürlich: Was passiert mit der klassischen Suchmaschine Google? Werden Menschen dort noch suchen? Ich sehe einen klaren Trend: Menschen nutzen ChatGPT, Perplexity und andere KI-Tools ungebrochen. Aber auch Google wird sich weiterentwickeln.
Suchverhalten: Die Entwicklung
Transparenz-Hinweis: Die folgende Tabelle mit Prognosen für die Entwicklung des Suchverhaltens wurde von einer KI erstellt. Ich habe eine KI gefragt, wie sich das Suchverhalten entwickeln könnte, und diese Vorhersagen sind das Ergebnis. Es handelt sich nicht um meine eigenen Prognosen, sondern um eine KI-basierte Einschätzung möglicher Entwicklungen.
Wichtig: Google wird nicht verschwinden, aber die Nutzung verschiebt sich. Menschen nutzen KI-Tools für komplexe Fragen und Recherchen, während Google für schnelle Fakten-Checks und lokale Suche bleibt.
Verticals werden KI massiv nutzen
Bei uns auf dem SEODAY Cologne haben wir zusammen mit StepStone eine Kooperation gestartet, bei der jeder Job KI-angereichert wird. Ich will noch nicht genau verraten, wie sich das entwickelt, aber ich kann schon mal ein bisschen spoilern: Diese Jobsuche wird vielen Suchmaschinenoptimierern extrem viel Zeit sparen – und durch die gute Datenbasis von StepStone haben wir hier eine tolle Variante.
Ich glaube, dass Seiten wie StepStone oder andere Verticals in Immobilien, Flüge, Kfz extrem nachlegen werden und KI nutzen werden, um dem User eine bessere Suchexperience zu geben. Das ist im Grunde genommen, wohin alles hinausläuft – und da ist KI stark.
Verticals: KI-Nutzung im Vergleich
Weitere praxisorientierte Beispiele
Immobilien-Suche:
- HTML: "Wohnung Berlin - Balkon: ✓, Aufzug: ✓, Haustiere erlaubt: ✓"
- MCP: Strukturierte Daten für KI-Agenten
- Agent: "Finde 3-Zimmer-Wohnungen mit Balkon und Aufzug" → Sofort passende Ergebnisse
Flugbuchungen:
- HTML: "Flug Berlin-München - Direktflug: ✓, Handgepäck inklusive: ✓, Flexibles Stornieren: ✓"
- MCP: Strukturierte Daten für Preisvergleiche
- Agent: "Zeig mir günstige Direktflüge mit flexiblem Stornieren" → Intelligente Auswahl
E-Commerce:
- HTML: "Produkt XYZ - Nachhaltig: ✓, Made in Germany: ✓, 5 Jahre Garantie: ✓"
- MCP: Strukturierte Produktdaten
- Agent: "Finde nachhaltige Produkte mit 5 Jahren Garantie" → Personalisierte Empfehlungen
Das Besondere: Diese detaillierten Informationen sind heute oft nicht strukturiert verfügbar oder schwer auffindbar. MCP macht sie zugänglich, während die originalen HTML-Quellen transparent und überprüfbar bleiben.
StepStone Case Study: In unserer Kooperation mit StepStone nutzen wir KI, um jeden Job automatisch anzureichern. Das bedeutet: Automatische Zusammenfassungen, Skill-Matching, Gehaltsprognosen und personalisierte Empfehlungen – alles auf Basis der vorhandenen Jobdaten. Das spart SEOs massiv Zeit und verbessert die User Experience erheblich.
Praxisbeispiel: Jobsuche mit KI-Anreicherung
Das konkrete Beispiel: Ein Nutzer sucht nach "Remote Marketing Jobs, 60-80k€, flexible Arbeitszeiten".
Ohne MCP: Der Nutzer muss durch hunderte Jobanzeigen scrollen, jede einzeln öffnen und die Informationen manuell prüfen.
Mit MCP:
- HTML-Ebene: StepStone listet Jobs mit allen Details: "Marketing Manager - 100% Remote, Gehalt: 60-80k€, Flexible Arbeitszeiten"
- MCP-Ebene: Strukturierte Daten:
{"job": "Marketing Manager", "remote": true, "salary_min": 60000, "salary_max": 80000, "flexible_hours": true} - KI-Agent-Ebene: "Finde Remote Marketing Jobs, 60-80k€" → Sofort 12 passende Jobs mit allen Details
Der Mehrwert: Diese Informationen sind heute oft versteckt oder nicht strukturiert. MCP macht sie sofort auffindbar, während die originalen Jobseiten transparent bleiben. Das ist ein Beispiel, das es so noch nicht gibt – eine intelligente Jobsuche, die wirklich alle relevanten Kriterien berücksichtigt.
Das müssen wir natürlich jetzt noch lernen: Diese Tonnen von Daten anzureichern. Bei uns im Team haben wir letzten Monat 43 Milliarden Tokens verbraucht – das waren ungefähr 13.500 US-Dollar an Kosten. Und das ist noch klein. Ich sehe Leute um mich herum, die das Zehnfache gerade verbrauchen – und auch das ist noch klein.
Token-Verbrauch: Die Realität der KI-Kosten
Unsere Erfahrung: Bei StepStone arbeiten wir aktuell im "Groß"-Bereich. Die Kosten sind erheblich, aber der Mehrwert für Nutzer rechtfertigt die Investition.
Realitätscheck: 43 Milliarden Tokens klingen nach viel – und sind es auch. Aber wenn man bedenkt, dass wir damit Millionen von Jobs anreichern und tausenden von Nutzern bessere Erfahrungen bieten, relativieren sich die Kosten. Pro Job sind das nur wenige Cent – ein Bruchteil dessen, was traditionelle manuelle Prozesse kosten würden.
Warum die Kosten steigen
Deswegen kann ich sehr gut verstehen, warum gerade für über 80 Milliarden Dollar Rechenzentren gebaut werden. Wir brauchen diese Power. Und alleine in meinem Kopf sind noch ganz, ganz viele Ideen, was man noch alles mit KI machen kann und wie KI die Welt besser machen kann.
Die Frage an die Branchengrößen
Hier würde mich natürlich auch sehr interessieren, was Branchengrößen wie Johannes Beus von Sistrix hier drüber denken. Wir haben letzte Woche schon auf dem Superpanel über Agenten philosophiert, die in Zukunft einkaufen können im Browser. Aber hier fehlt uns, glaube ich, allen noch ein bisschen die Fantasie, wie Johannes Beus das so schön gesagt hat.
Und deswegen geht der Ball jetzt mal weiter an Johannes Beus: Was denkt er, wie geht die Zukunft hier weiter? Und natürlich besonders spannend: Wie entwickelt sich Suchmaschinenoptimierung weiter und worüber werden wir auf dem SEODAY in den nächsten Jahren reden?
Offene Fragen an die SEO-Community
Fazit: Eine hybride Zukunft
Mario Fischer hat Recht: Die Art, wie wir Informationen konsumieren, wird sich fundamental ändern. Agenten werden allgegenwärtig sein, personalisierte Erfahrungen werden zur Norm, und die User Experience wird revolutioniert.
Aber HTML wird bleiben – nicht als dominante Technologie, sondern als Basis für Transparenz und Kontrolle. MCP-Systeme werden die Brücke schlagen zwischen strukturierten Daten und Agenten, während HTML weiterhin die Möglichkeit bietet, Informationen unabhängig zu verifizieren.
Die Zukunft ist hybrid: HTML für Transparenz, MCP für Effizienz, Agenten für Personalisierung. Das ist keine Entweder-Oder-Entscheidung – es ist ein Sowohl-Als-Auch.
Die hybride Lösung: Best of Both Worlds
Warum Hybrid die beste Lösung ist
Die Roadmap: Was kommt als Nächstes?
Transparenz-Hinweis: Die folgende Roadmap mit Zeitrahmen und Entwicklungen wurde von einer KI erstellt. Ich habe eine KI gefragt, wie sich die Technologie in den kommenden Jahren entwickeln könnte, und diese Vorhersagen sind das Ergebnis. Es handelt sich nicht um meine eigenen Prognosen, sondern um eine KI-basierte Einschätzung möglicher Entwicklungen. Die Zukunft kann natürlich anders verlaufen.
Key Takeaways
Für SEOs:
- HTML bleibt wichtig – optimiert weiterhin für Suchmaschinen
- MCP-Systeme werden zunehmend relevant
- KI-Agenten erfordern neue Optimierungsstrategien
- Verticals werden KI massiv nutzen
Für Publisher:
- HTML als Basis beibehalten
- MCPs für KI-Integration implementieren
- TKP-Modell als neue Monetarisierungsquelle prüfen
- Qualität wird wichtiger als Quantität
Für Entwickler:
- MCP-Protokolle lernen und implementieren
- Hybrid-Architekturen entwickeln
- HTML und strukturierte Daten parallel bereitstellen
- Offene Standards bevorzugen
Danke, Mario Fischer, für diesen visionären Artikel! Du hast eine wichtige Diskussion angestoßen, die wir als Community führen müssen. Wer mehr von Marios Expertise lesen möchte, dem empfehle ich das Website Boosting Print-Magazin, das in der deutschen Online-Marketing-Szene sehr bekannt und beliebt ist.
Was denkt ihr? Wird HTML verschwinden oder bleiben? Wie seht ihr die Zukunft der Suchmaschinenoptimierung? Lasst uns die Diskussion weiterführen!