Weblog
27. November 2025
Eigentlich. Eigentlich war die Phase meiner kritischen KI-Rants ja beendet. Aber ich muss das Thema kurz nochmal aufmachen. Sorry. Denn: Hendrik fiel auf, dass ein neueres Mitglied im UberBlogr Webring kein persönliches Blog, sondern ein KI-generiertes war.
Nun hatte ich ja erst vor ein paar Tagen das Thema, ob man wirklich KI in einem persönlichen Blog benötigt. Und während ich es nicht mag, kann ich akzeptieren, dass Mitglieder im Webring Large Language Modelle als Hilfe in ihrem Blog einsetzen.
Was ich allerdings nicht akzeptieren mag, sind vollständig von der KI generierte Blogs. Und noch weniger, wenn sie sich als Mensch ausgeben. Nur im Impressum stand dann winzig, dass das hier alles zwar 'fachlich' okay sei, aber eben das Drumherum nur ausgedacht.
Die Frage ist natürlich: Wie weit darf eine Spielwiese Spiel sein. Und am Ende macht es die Frage auf, ob ein gänzlich fiktionales Blog grundsätzlich okay ist im Ring, oder ob die Grenze KI ist – und zu welchem Grad?
Ich habe UberBlogr gegründet, weil ich es einfach machen wollte in einem Netz voller geschlossener Plattformen und abnehmender Sichtbarkeit einen Platz zu schaffen, in dem persönliche Blogs ein bisschen Sichtbarkeit und Vernetzung erfahren. Ich würde gern vermeiden, dass dabei Inhalte repräsentiert werden, die als 'AI Slop' zunehmend das Internet vermüllen, statt ihm menschliche Kreativität hinzuzufügen – das, was für mich immer der spannendste Aspekt des alten Internets ausmachte.
Die Kommentare sind offen.
11 Kommentare / Lesen ↦
24. November 2025
ChatGPT und seine Kumpels sind so praktisch. Doch es ist Vorsicht geboten, wenn es um Fakten geht – davor warnt nicht nur der Google-CEO, sondern auch der Stand der Technik.
2 Kommentare / Ganzen Beitrag lesen ↦
10. November 2025
Ich kann verstehen, wenn man KI als Partner beim brainstormen nutzt.
Es gibt unterschiedliche Ansätze, wie Menschen Informationen verarbeiten oder kreative Ideen gebären. Manch einer braucht Ruhe. Manch einer muss es aufschreiben. Und andere brauchen das Zwiegespräch mit einem Gegenüber, um den eigenen Denkprozess zu vollenden. Oft geht es dabei überhaupt nicht um das Feedback, sondern einfach darum, laut zu formulieren, was man denkt.
Ich kann auch verstehen, wenn man KI zur Kontrolle des eigenen Geschriebenen nutzt. Quasi als Lektor.
Was ich aber nicht verstehe ist, wenn man einer KI sein eigenes Denken und Schreiben einfach vollständig überlässt – vor allem im Privaten. Als bräuchte ich fürs Tagebuchschreiben eine Begleitung, die mir über die Schulter schaut und mir lobende Worte und Korrekturen ins Ohr flüstert. Von wegen.
Nee, das hier ist meine private Wiese – da brauch' ich echt keine Aufsicht.
Und natürlich – wie schon Anfang des Jahres in der Diskussion um KI-Bilder zur reinen, sinnentleerten Illustration –, kann man jetzt argumentieren: Wenn ein privates/persönliches Blog doch meine Spielwiese ist, dann kann ich eben auch mit KI spielen.
Jup. Kannst du. Aber dann tu mir einen Gefallen: Markiere es und überlass mir die Wahl, es nicht zu lesen. Denn ich finde: wenn du in deinem persönlich Blog jemanden brauchst, der dir dabei hilft, Texte zu schreiben, ist's nicht mehr privat – dann bist es nämlich nicht mehr Du. Und dann ist's für mich schlichtweg auch nicht mehr interessant.
Wir leben in Zeiten, in denen 52 % des Geschriebenen im Internet schon nur noch durch KI generierte Texte sind. Ich will den Scheiß nicht lesen. Das ist Abfall. Das ist, wie Weichtieren dabei zuzuschauen, wie sie sich selbst befruchten.
Kreativität sollten wir nicht der KI überlassen, die soll meine Wäsche und das Geschirr machen. Allzu gern auch die stumpfen Tätigkeiten meines Jobs. Aber sie soll mich bitte in Ruhe lassen, wenn es um mein Denken, meine Kreativität und meine Meinung geht.
Als schlechter Schreiber wirst du nur besser, wenn du mehr schreibst.
Und zwar in deinem eigenen Stil. Nicht in einem durch KI rundgelutschten Standard-Sprech.
Ich sag nicht, dass du "verzichten" sollst. Lass die KI dein Lektor sein. Aber ein Lektor ist ein Ratgeber. Dazu gehört, dass du den auch ignorieren kannst. Sind Rechtschreib- und Grammatikfehler wirklich dermaßen schlimm? Für mich beginnt der Eingriff tatsächlich schon beim Satzbau, denn schon der zeigt Persönlichkeit. Lasst uns die Unperfektion viel mehr wieder rauskehren und genießen. Niemand braucht KI-Texte in persönlichen Blogs.
13 Kommentare / Lesen ↦
23. Oktober 2025
Während die USA mehr Energie produzieren als jemals zuvor, steigen die Strompreise.
Grund dafür ist der KI-Hype, der an vielen Orten neue Rechenzentren entstehen lässt – im Schnitt um über 6 % in den USA; in manchen Gegenden mehr als in anderen. (Axios)
Rund um die neu entstandenen Datenzentren sind die Preise in den letzten 5 Jahren gar um bis zu 267 % gestiegen. (Bloomberg)
Und die USA sind mit ihrem Energiehunger nicht allein: Goldman Sachs erwartet, dass der KI Boom in den nächsten fünf Jahren den Stromverbrauch für Rechenzentren um 165 % steigen lassen wird. (n-tv)
Da passt es gut, wenn Amazon jetzt sein erstes, eigenes Atomkraftwerk baut. (Standard)
Und Amazon ist nicht allein. Meta, Alphabet, Microsoft – alle planen entsprechende Investitionen. (Spiegel)
Was man beim rumspielen mit KI für sich immer im Kopf behalten sollte: KI bedeutet Daten. Und Daten bedeuten Strom. Und Strom bedeutet Ressourcen. Und die müssen irgendwo herkommen – oder irgendwer muss dafür zahlen; im Zweifel eben einfache Menschen, weil sie zufällig neben einem Datencenter leben.
Lesen ↦
12. Oktober 2025
Dass Large Language Modelle (LLM) wie ChatGPT nicht neutral sind, ist eigentlich keine Überraschung. Eine neue Studie beschäftigt sich damit, welche Vorurteile sie reproduzieren, wenn es um West- und Ostdeutsche geht. Stellt sich raus: Saxony-Anhalt is the Worst.
Die Ergebnisse zeigen eine systematische Tendenz der KI, Bewohnern ostdeutscher Bundesländer stets "niedrigere" Werte zuzuweisen – das geht von Fleiß oder Attraktivität bis hin zur (festhalten!) Körpertemperatur!

Mehr auf heise.
Der Betreiber von Claude AI, Anthropic, hatte vor ein paar Tagen übrigens eine kleine Studie veröffentlicht, die zeigt: Mit nur 250 Dokumenten kann man "die Meinung" eines LLMs vergiften – unabhängig davon, wie groß der gesamte Datenbestand sonst ist.
Immerhin: ChatGPT-Betreiber OpenAI bescheinigt sich selbst, dass sein neues Modell GPT-5 politisch weniger voreingenommen sei. Na dann!
1 Kommentare / Lesen ↦
11. September 2025
Bye bye, em dash (—) 👋
Ich habe Ewigkeiten gebraucht, um zu verstehen, dass es einen Unterschied zwischen - und – oder — gibt.
Ähnlich übrigens, dass ... nicht … ist.
Seit ChatGPT Texte für alle schreibt, ist die Nutzung des Halbgeviertstrich im Deutschen und des Geviertstrich im Englischen (was ich beruflich viel schreibe) für viele eher ein Indikator, dass Texte von einer KI geschrieben sind, als ein Ausdruck für Wissen.
Muss ich jetzt wirklich wieder anfangen, den falschen Viertelgeviertstrich zu nutzen; als Beweis, dass der Text von mir echt ist?
4 Kommentare / Lesen ↦
22. August 2025
Auf welche Regeln sollte ich beim Einsatz von KI im persönlichen Alltag eigentlich achten? Hier sind ein paar Regeln, Gedanken und Hinweise für den täglichen Umgang mit ChatGPT, Claude und Co.
6 Kommentare / Ganzen Beitrag lesen ↦
12. August 2025
Wie Stromhungrig Large Language Modelle sind? Sehr.
Beispiel: Für eine mittellange Antwort benötigt das neue ChatGPT-5 etwas mehr als 18 Wattstunden Strom. Basierend auf geschätzt täglich 2,5 Milliarden Anfragen weltweit könnte GPT-5 einen täglichen Stromverbrauch haben, der vergleichbar mit 1,5 Millionen US-Haushalten ist./ via
Link ↦
25. Juli 2025
Mit Lumo präsentiert Proton ein Datenschutz-konformen KI-Assistenten aus der Schweiz. Proton bietet im Portfolio bereits Mails, Webspace und andere Dienstleistungen; seit März nutze ich einige der Services und mich nach 20 Jahren von Google gelöst.
Sämtliche Gespräche bleiben vertraulich […] eine Verwendung der Daten zum Training der KI-Modelle findet nicht statt [… durch] die Verschlüsselung [hat] selbst Proton keinen Zugriff auf die Inhalte
Lumo basiert auf einem OpenSource-Large Language Model, dass Proton angepasst hat. Die KI kann nicht nur beim nachdenken helfen, sondern auch beim recherchieren, denn sie kann auch auf Webseiten zugreifen und diese zusammenfassen.
Ein kleines Basispaket ist kostenfrei; mehr Power gibt es für rund 12 Euro im Monat.
Das ist ein guter Anfang, um den Tech-Giganten wie Google, xAI, OpenAI und Anthropic (deren KI "Claude" ich nutze) entgegen zu setzen. Zumindest für den privaten Gebrauch kann Lumo ganz spannend sein, wenn man sein Geld eben nicht in den USA überweisen will.
Caschy mit mehr Details.
Lumo FAQ mit den technischen Details bei Proton.
Meine ersten kleinen Tests waren ganz okay, auch wenn Claude mir bei meinen losen Recherche-Anfragen ("Ich habe neulich eine Studie zum Thema X gelesen, die folgendes herausgefunden hat – kannst du die Quellen finden & textlich so zusammenfassen, dass es auf ein Slide passt") die Ergebnisse liefert, die ich erwarte und Lumo eher allgemein blieb. Ich bin mal gespannt wie sich Lumo entwickelt und werde es auf jeden Fall im Auge behalten.
Und grundsätzlich noch einmal der Hinweis: Wenn du einem Large Language Model eine Frage stellst, traue ihm nicht zweifelsfrei.
2 Kommentare / Lesen ↦
14. Juni 2025
OpenAI und Mattel wollen gemeinsam Spielzeug entwickeln.
BarbieLLM … Was soll schon schief gehen? Man muss die Gören ja früh an diesen ganzen Tech-Kram gewöhnen – nicht, dass die noch auf Bäume klettern und ihre Zeit an der frischen Luft verbringen.
Das kommt zu einem Zeitpunkt, indem man europaweit diskutiert, Social Media für Jugendliche zu verbieten (statt irgendwie mal darüber zu reden, wie wir endlich Medienkompetenz auf einem gesellschaftlich breiten Fundament stärken). Dann gibt es statt #skinnytok demnächst eben Deeptalk mit Barbie (welches Spielzeug Mattel als Erstes mit KI ausstattet steht noch nicht fest).
Richtig derb wird das, wenn man dann liest: Es ist nicht die erste Kooperation zwischen OpenAI und einem Spielzeughersteller. So schreibt heise:
OpenAI arbeitete bereits in der Vergangenheit mit Spielzeugherstellern zusammen, zum Beispiel Curio, über dessen Stofftiere Kinder mit ChatGPT sprechen können. Zusätzlich werden alle Transkripte der Gespräche an die Eltern übermittelt und in einer Microsoft-Cloud gespeichert, wo sie von Curio zur Produktoptimierung ausgewertet werden.
Ehrlich: WTF?
Auch ein vierjähriges Kind hat ein Recht auf eine Privatsphäre. Das ist Next Level heimlich Tagebuchlesen. Was ein Kind mit seinem Kuscheltier bespricht sollte zwischen den beiden bleiben – Kinder wählen da sehr wohl, was sie wem erzählen. Davon ein Transkript zu erhalten ist ein massiver Tabubruch und eine Überschreitung des elterlich-kindlichen Vertrauensverhältnisses.
Was für eine Welt, ey.
2 Kommentare / Lesen ↦