Simon Berlin und Martin Fehrensen haben im Social Media Watchblog (SMWB) gestern Vorschläge für eine KI-Etikette aufgeschrieben. Und ich möchte die hinter der Paywall versteckten Dinge einmal ans Licht ziehen, weil sie verdient haben diskutiert zu werden (und ich ihnen zustimme).
Das SMWB ist kostenpflichtig, und die Arbeit hat verdient bezahlt zu werden. Deshalb zitiere ich die schlauen Gedanken der aktuellen Ausgabe hier nicht großflächig, sondern greife nur die Vorschläge von Simon und Martin und formuliere meine eigenen Gedanken.
Noch ein Satz, bevor wir loslegen: Ich äußere mich im Blog hier oft kritisch zu KI. Zuweilen mag es erscheinen, als sei ich ein fanatischer Gegner. Dem ist auf keinen Fall so. Claude Code gehört mittlerweile zu meinen täglich genutzten Sparing- und Entwicklungspartnern, ich nutze Perplexity für komplexe Recherchen und ich befürchte, Claude AI kennt mich mittlerweile besser als meine Familie. Hier im Blog gebe ich mir aber Raum, die (meine und eure) Nutzung zu hinterfragen. Das erscheint dann zuweilen überkritisch – liegt aber in der Natur der Dinge.
Also: Verzichte auf den Einsatz von KI, wenn…
Du Freund:innen oder Bekannten schreibst
Lange Mails und Briefe waren bisher ein Ausdruck von 'Du bist mir Zeit und Gedanken wert'. Doch „zum ersten Mal in der Geschichte der Menschheit kann ein Text der Empfänger:in mehr Aufwand abverlangen als dem Absender“, schreibt das SMWB. Und das ist bei Briefen wie bei Büchern: Wenn ich dir nicht die Zeit wert bin, wieso solltest du sie mir wert sein? Ich hab besseres verdient als KI-Slop – ich hab' deine Zeit verdient; ich bin kein ToDo, dass du dringend abhaken musst. Melde dich meinetwegen seltener, aber dann persönlich.
Du mit Kolleg:innen kommunizierst
Im vergangenen September prägten Forschende aus Stanford den Begriff 'Workslop' (hatte ich hier im Blog). Und dummerweise greift der massiv um sich. Selbst in meiner Firma ist das Satz „Ich hab' mal Chatty gefragt“ so dermaßen inflationär in Diskussionen zu hören mittlerweile, ich möchte in Tischkanten beißen. Leute, nutzt euer Gehirn – Chatty kann ich selbst fragen. Und deine ungefilterte KI-Kacke verlangt mir mehr ab, als dir – wieso soll das bitte fair sein, dein Nicht-Nachdenken mir aufzubürden? Klar, die Entwicklung wird von Unternehmen am Ende forciert, wenn man Microsoft CoPilot integriert, der auf Mails antworten soll, oder überall Chatbots einführt. Aber niemand kann dich zwingen … Insofern: Lass uns doch bitte am Arbeitsplatz nicht zu KI-Sklaven werden …
Menschen nicht eingewilligt haben, KI-Inhalte zu empfangen
Siehe Punkt oben: „Ich hab' mal Chatty gefragt…“ … nee, lass gut sein. Das ist, als würdest du mir vor die Füße kotzen.
Ähnlich halte ich es mit Newslettern und Online-Texten, die von KI erzeugt wurden und nicht kenntlich gemacht sind – ich komme mir dann einfach betrogen vor. Es ist vollkommen okay, die eigenen Dinge von KI checken zu lassen. „ChatGPT-Copypasta? Verschon uns bitte“, schreibt das SMWB und ich schließe mich an.
Der Prozess Teil des Ergebnis ist
„Wenn man Denken an LLMs auslagert, werden andere und weniger Areale im Hirn aktiv (SMWB) […] Auch wenn das Ergebnis gut sein mag, bleibt bei uns oft weniger hängen.“ Lesen, Verstehen, Schreiben – all das gehört zum Prozess des Verarbeitens, Denkens und des Entstehens dazu und ist immens wichtig. Ja, auch ich nutze KI-Zusammenfassungen – jedoch ausschließlich bei Themen, die mir weniger wichtig sind: Was der organgene Affe in Washington heute angestellt hat, muss ich nicht seitenlang lesen, dass kann die KI in drei Sätzen zusammenfassen. Wieso sich gerade alle über irgend eine Talkshow aufregen – here you go, Perplexity. Bei allem, was ich aber verarbeiten muss, investiere ich Zeit und lese mich durch …
Die Antwort richtig sein muss
Moderne LLMs konfabulieren seltener – trotzdem sind es eben keine Wahrheitsmaschinen, sondern Wahrscheinlichkeitsmaschinen. Bedeutet: Alles, was ein LLM dir erzählt, solltest du gegenchecken. Hervorragend lässt sich das an stritigen oder aktuellen Themen testen: Claude AI zum Beispiel fungiert als Lektor meines kleinen Newsletters. Regelmäßig weist es mich dann darauf hin, dass ein eine aktuelle Entwicklung fehlerhaft sei, oder korrigiert mich. LLMs kommen vor allem bei aktuellen Entwicklungen ins Straucheln. Das mag sich mittlerweile verbessert haben, wenn man sie konkret anweist zu recherchieren – aber wenn die Quellen mittlerweile zu einem bedeutenden Teil auch die KI-generierte Grokipedia von Elon Musk, YouTube Videos und reddit sind, sollte man den Kopf zumindest eingeschaltet lassen und die Ergebnisse kritisch prüfen.
Wann hast du zum letzten mal richtig hart nachgedacht?
Eine Unsitte geworden ist ja, dass alles, was ein bisschen Hirnschmalz erfordert, mittlerweile von KI wiedergekäut wird. Den Satz "Ich hab' mal ChatGPT gefragt" kann ich nicht mehr hören – vor allem nicht im Arbeitskontext.
Klar werde ich bezahlt, um Powerpoints zu bauen. Und einen noch mehr erfundenen Job gibt es ja nicht, als den eines Strategen. Aber Hey, du bezahlst mich vor allem fürs nachdenken – nicht das, was auf dem Slide steht, sondern die Denkarbeit davor!
Und selbst mit KI ist's noch immer die Kopfarbeit, ob es sein kann und was damit anzustellen ist.
Nachdenken ist einfach nicht mehr cool. Das zieht sich mittlerweile durch alle Branchen. Beispielsweise im Coding: Vibe Coding ist ja cool, aber es bringt niemanden von uns weiter – weil das reinnerden in Probleme und das Erschaffen echter kreativer Lösungen für (technische) Probleme nicht von der KI geleistet werden kann:I miss thinking hard.
… und man verstehe mich nicht falsch.
Im beruflichen Kontext liebe ich die Vorzüge der KI, wenn sie mir exakt sagen kann, wo ich etwas gelesen habe, Kontexte schaffen kann, synthetische Audiences Antworten auf Fragen geben können, … Jaja, alles gut. Das ist aber eben auch, weshalb ich KI aus gewissen Aspekten meines Schaffens und meines Lebens raushalten will. Weil ich es genauso liebe, nachzudenken.
Update
Felix "formt" Gedanken eher über Zeit – und ich funktioniere vor allem bei Kreativ- und Strategie-Fragen ebenso; meine Working-Decks sind lebende Objekte die sich wie Knetmasse mit der Zeit entwickeln; "hart" nachdenken tue ich eher, wenn die Deadline drückt 😂
Diese Woche dreht sich alles um KI und was sie mit uns macht – privat, gesundheitlich, beruflich. Es geht um einen Moment der Veränderung und unseren Platz darin. Dazu natürlich ein Buch- und Videotipp.
Spannende Einblick in eine aktuelle Studie zum Thema Erneuerbare Energie und den Stromhunger der Welt.
Der Ausbau der Erneuerbaren hätte die Emissionen längst sinken lassen, wäre da nicht der gegenläufige Trend der steigenden Nachfrage, die die fossilen Erzeuger am Netz hält.
Grundsätzlich seien wir – trotz des Zurückruderns der USA unter Trump oder der Zögerlichkeit Deutschlands – mit dem Ausbau der Erneuerbaren gut unterwegs. Und doch geht es jetzt wieder rückwärts:
In einigen Industrienationen habe sich der Trend einer sinkenden Stromnachfrage in den letzten beiden Jahren aber wieder umgekehrt. Der Rekordausbau der Erneuerbaren wird laut Studie zu einem großen Teil vom rasch wachsenden Energiebedarf der Rechenzentren für künstliche Intelligenz aufgesogen.
Nicht nur KI ist ein Problem. Auch die zunehmende Urbanisierung und die Erderwärmung benötigten mehr Energie, insbesondere für Kühlung. Und (so ungern man das hören mag), auch die Elektrifizierung im Verkehrsbereich trägt zu mehr Stromhunger bei.
Allerdings haben wir Daten- und KI-hungrigen Schnuffel, die wir alle sind, ein ernstzunehmendes Problem. Denn während wir auf A+++ Kühlschränke und LED-Lampen umsteigen, ballern wir Kilowattweise Daten durch die Leitungen und wärmen im Bibel-Belt der USA die Felder mit Serverfarmen:
Grundsätzlich sei zu diskutieren, ob neben Energieeffizienz nicht auch Dateneffizienz in Zukunft ein wichtiges Thema sein müsse […] Können wir es uns leisten, die Erde substanziell zu erwärmen, damit täglich riesige Datenmengen für Tiervideos hoch- und runtergeladen werden können? Ein möglicher Hebel sei irgendeine Form der Bepreisung von Datenströmen. Darüber müsse man gesamtgesellschaftlich debattieren [Es gehe] ihnen nicht um Fragen des Lebensstils, sondern um wirksame politische Ansätze, die in vielen Fällen zusätzlich die Lebensqualität steigern könnten.
Mir geht es am Ende aber wie Nico: Ich weiß da natürlich auch keine Lösung, werde aber das Gefühl nach wie vor nicht los, mir steuerten auf einen Abhang zu und drücken gerade nochmal so richtig auf das Gaspedal.
Humanoide Roboter sind der nächste heiße Scheiß. Physische KI auf vielen Beinen, die uns überrennt – Entschuldigung, helfen soll. Boston Dynamics hat jetzt den neuen Atlas vorgestellt. Und wir sollten uns schleunigst um Regeln kümmern.
Die Zeit der abstrakten “Netzpolitik” ist vorbei. Digitalisierungspolitik ist 2025 vor allem Geopolitik. Die USA sehen dabei für Plattformen, Cloud und den KI-Stack. China für seltene Erde und die tiefe Integration von Industrie und KI. Und Europa steht schwach dazwischen als Regulierer und Abhängiger. – Johannes Kuhn
2025 wird als das Jahr eingehen, in dem wir vom AI Slop überrannt wurden. Persönlich halte ich den Kampf "gegen" KI-Inhalte schon seit einigen Monaten für verloren – wir haben eigentlich nur noch eine Chance: Alles als Fake erachten, und Echtes kennzeichnen. Das sieht selbst Instagram-Chef Adam Mosseri mittlerweile so.
tl;dr: KI mal wieder … und Star Trek. Lose Gedanken, ein Video und nicht ein einziger Angriff.
Star Trek ist eine höchst analoge Science-Fiction-Serie, die im Herzen sogar Anti-Tech ist: Computer sind nicht vertrauenswürdig, die Gesellschaft findet Schönes in Rückgriffen auf das 19. und 18. Jahrhundert. In modernen Trek-Serien tritt KI stets als Gegner auf. Und 'gut' ist eigentlich nur eine künstliche Lebensform: Data.
Schon in der originalen Serie sind Computer für den Stillstand von Kulturen verantwortlich. Und als ein Computer namens M5 die Steuerung der Enterprise übernehmen soll, befindet Captain Kirk: „Das Ding ist falsch.“ Gefühl und Echtheit geht in Trek immer vor. In Der Next-Generation-Episode 'Booby Trap' philosophieren Picard und Riker, ob man dem Computer wirklich die Steuerung des Schiffs überlassen könne. Und in Discovery will eine KI die Kontrolle über alles übernehmen.
Star Trek zeigt uns in seiner Technik-Feindlichkeit eigentlich, dass Computer exzellente Diener, aber furchtbare Herren sind.
In seinem Video 'How Star Trek Predicted AI Slop' schlägt Rowan J Coleman einen hervorragenden Bogen. Trek, so Coleman, hätte den KI-Slop vorhergesagt – in gewisser Weise. Denn nicht die KI als solche ist schlecht. Sondern die menschliche Versuchung, den Wert der Arbeit durch die Bequemlichkeit der Maschine zu ersetzen. Wie in Trek sollten wir uns daran erinnern: Nur weil eine Maschine etwas effizienter machen kann, ist das Ergebnis nicht zwangsläufig besser.
Das liegt auch daran, dass (generative) Algorithmen auf Daten der Vergangenheit beruhen. Sie können deshalb nur recyclen, nicht neu schaffen. Hätte eine KI in den 1960er etwas wie Star Trek erschaffen können? Echte Innovation entsteht durch Reibung und Visionen, die über das Bestehende hinausgehen. Kunst entsteht durch den Prozess, durch Disziplin und das Überwinden von Widerständen. Wer nur das fertige Produkt will, ohne die Arbeit zu investieren, produziert am Ende nur „Slop“.
Coleman formuliert damit ein bisschen das, was ich stets bei Diskussionen insbesondere um generative KI fühle.
Ja, sie kann dir Arbeit abnehmen. Aber KUNST oder LEBEN ist das Ergebnis eines Prompts deshalb für mich nicht.
Und bevor wir hier wieder am Thema vorbeidiskutieren: Soll jede:r halten, wie er mag. Wer bin ich, etwas verbieten zu wollen. In meinem beruflichen Alltag setze ich LLMs ausführlich ein, um mir Arbeit abzunehmen – das Erschaffen aber lasse ich mir nicht aus der Hand nehmen. Und wenn es um meine Freizeit geht, dann lese ich Dinge absichtlich – und selbst. Dann halt ich es schon seit geraumer Zeit mit einem Gedanken, den Geoff Graham neulich treffend formulierte:
If you’re not gonna bother writing it yourself, I ain’t gonna bother reading it myself.
… KI kann vielleicht Kunst erschaffen. Kultur erschaffen aber nur Menschen.