Webseite-Traffic durch Suchmaschinen ist tot
"Gemini von Google wird uns praktisch zerstören", sagt Dennis Ballwieser, Chefredakteuer der Apotheken-Umschau. Und weiter: "Portale, die auf Reichweite abzielen, sind tot. […] Dieses Geschäftsmodell [mit Website-Traffic Geld zu verdienen], das jetzt seit 20 Jahren funktioniert hat, ist zu Ende."
Ballwieser hat Recht.
Wer sich als Website-Betreiber bisher auf Google verlassen hat, sollte dringend sein Geschäftsmodell überdenken.
Seit ChatGPT im November 2022 aufgetaucht ist wird klar: Large Language Modelle (LLM) zerstören den Web-Traffic und die traditionelle Suche. Auch wenn Sprach-Modelle wie ChatGPT eigentlich keine Suchmaschinen sind, nutzt eine zunehmende Zahl Menschen es so. Hinzu kommen junge Menschen, die eher visuelle Ergebnisse wollen statt Linklisten, weshalb YouTube und TikTok im Alltag heute schon eine massive Zahl von Suchanfragen beantworten. Und jetzt tritt Google mit Gemini und seiner Suchanfragen-Zusammenfassung in die gleichen Fußabdrücke. Dabei ist Googles Zug nur konsequent: das Unternehmen wurde nie als Suchmaschine entworfen, das Menschen Linklisten präsentiert. Im Gegenteil, Google wollte von Anfang an eine Antwortmaschine sein.
Wir erleben einen massiven Shift im Verhalten, wie wir Inhalte Suchen und Entdecken.
Das war ein Grund, weshalb ich UberBlogr vor drei Jahren gegründet habe: Um Blogs und Inhalte leichter entdecken zu können. Weil (kleine) Webseiten aus unserem Alltag verschwinden werden.
Googles neue Zusammenfassung zeigt schon wenige Wochen nach ihrer Einführung einen negativen Trend im Webtraffic: In den USA beklagen Verlage einen deutlich spürbaren Traffic-Verlust. Besonders stark betroffen sind dabei die Angebote, die bisher von Google oft am meisten profitiert haben: Nischenblogs aus Bereichen wie Reisen, Kochen oder Heimwerken.
Seit dem Auftauchen von ChatGPT erkläre ich Kunden im Marketing-Bereich, dass die wichtigste Aufgabe einer Website künftig ist, den Large Language Modellen die besten Futter-Happen anzubieten, damit die nicht von anderen, sondern von der Unternehmens-Website lernen. Suchmaschinen-Optimierung ist gestern, LLM-Optimierung ist heute.
Für Websiten, die von Traffic leben indes wird der Kampf noch schwerer. Sie müssen sich andere Modelle ausdenken und stehen dabei vor der Herausforderung, dass ihnen sowohl Social-Media-Plattformen und LLMs Traffic wegnehmen, als auch jetzt die Monopol-Suchmaschine Google.
Wir stehen nach 20 Jahren erneut vor einem krassen Shift, wie wir das Internet nutzen.
Für kleine Webseiten und das Indieweb sehe ich vor allem die Chance sich zu verbinden und eigene Angebote zum Entdecken anzubieten. Das ist ein Grund, weshalb ich vor drei Jahren UberBlogr gegründet habe. Das ist ein Grund, weshalb ich Angebote wie Rivva liebe. Es sind Projekte, die uns jenseits der Giganten die Möglichkeit geben, Inhalte und wirklich Neues zu entdecken.
Wäre cool, wenn man sehen könnte, welcher eigene Content von den LLMs "sinnvoll" weiterverarbeitet wird... und: Ist das eigentlich ein Urheberrechtsverstoß?
Das Thema kam mir im Beruf (wir sitzen ja beide in ähnlichen Booten) auch unter, hier war der Bedarf nach einer GEO-Analyse gegeben. Das ist nichts Anderes als die Erweiterung des Quelltextes mit JSON-Tags, um die Seite noch besser für Crawling auszurüsten.
Anscheinend geht es bald nicht mehr entscheidend um Content und seine Qualität, sondern um die Konformität des Codes. Glänzende Zeiten für Fake News-Distributoren.
Er hat Unrecht. Es war in Wahrheit schon immer ein Fehler, als Webseitenbetreiber einen faustischen Pakt mit dem Teufel einzugehen.
Und Googles KI-Übersicht betrachte ich positiv, denn es könnte den Würgegriff Googles auf den (deutschen) Suchmaschinenmarkt lockern wenn Menschen von diesem "Feature" der Google-Suche so sehr genervt sind dass sie sich lieber nach Konkurrenz umschauen.
@Denis
Ja, sehe ich auch so
@Paula
Ja, wenn man so will war die Abhängigkeit von Google schon immer ein Fehler – aber irgendwann hattest du halt keine andere Chance. Andere Suchmaschinen neben Google sind und bleiben eine Nische – auch Bing bspw. nutzt mittlerweile KI-Zusammenfassungen; und die sind mit 4% Marktanteil die zweitgrößten nach Google.
Ich nutze startpage.com, wo es das nicht gibt und davor war es Ixquick (vom selben Anbieter). Alternativ gibt es noch SearXNG.
Entgegen "BuyFromEU" oder "#unplugtrump"-Aktivisten sind Ecosia und Qwant keine echten Alternativen. Ecosia ist nur ein Ablasshandelsanbieter und Qwant hat sich auf andere Weise disqualifiziert:
https://www.politico.eu/article/frances-mr-privacy-turns-cybersnooper
Man kann das Stockholm-Syndrom loswerden, wenn man es nur stark genug will und Googles KI-Übersicht wirkt auf mich wie eine gute (vom Google-Personal so nicht beabsichtigte) Motivationshilfe.
@Paula Es geht nicht um dich und mich – ich bin nicht derjenige, der überzeugt werden muss, sondern die anderen Millionen Nutzer:innen. Und wie geschrieben ist das auch kein Google-exklusives Problem 😉
Ich habe trotzdem Hoffnung darauf, dass die KI-Übersicht zumindest bei einem Bruchteil der Leute den letzten Schubs liefert.
Danke. Leider auch meine Reden.
Puh, jetzt ist aber dann eher die Frage - wie bietet man den Large Language Modellen die besten Futter-Happen an?
Eine Frage für viele Marketing-Verantwortliche … JSON Dateien, gut lesbar … Im Grunde machst du SEO jetzt nicht mehr primär um in Listings "clickworthy" auszusehen, sondern um LLMs anzuregen, deine Daten als "beste" anzubieten.