Bitte lass die Finger von KI, wenn…
Simon Berlin und Martin Fehrensen haben im Social Media Watchblog (SMWB) gestern Vorschläge für eine KI-Etikette aufgeschrieben. Und ich möchte die hinter der Paywall versteckten Dinge einmal ans Licht ziehen, weil sie verdient haben diskutiert zu werden (und ich ihnen zustimme).
Das SMWB ist kostenpflichtig, und die Arbeit hat verdient bezahlt zu werden. Deshalb zitiere ich die schlauen Gedanken der aktuellen Ausgabe hier nicht großflächig, sondern greife nur die Vorschläge von Simon und Martin und formuliere meine eigenen Gedanken.
Noch ein Satz, bevor wir loslegen: Ich äußere mich im Blog hier oft kritisch zu KI. Zuweilen mag es erscheinen, als sei ich ein fanatischer Gegner. Dem ist auf keinen Fall so. Claude Code gehört mittlerweile zu meinen täglich genutzten Sparing- und Entwicklungspartnern, ich nutze Perplexity für komplexe Recherchen und ich befürchte, Claude AI kennt mich mittlerweile besser als meine Familie. Hier im Blog gebe ich mir aber Raum, die (meine und eure) Nutzung zu hinterfragen. Das erscheint dann zuweilen überkritisch – liegt aber in der Natur der Dinge.
Also: Verzichte auf den Einsatz von KI, wenn…
Du Freund:innen oder Bekannten schreibst
Lange Mails und Briefe waren bisher ein Ausdruck von 'Du bist mir Zeit und Gedanken wert'. Doch „zum ersten Mal in der Geschichte der Menschheit kann ein Text der Empfänger:in mehr Aufwand abverlangen als dem Absender“, schreibt das SMWB. Und das ist bei Briefen wie bei Büchern: Wenn ich dir nicht die Zeit wert bin, wieso solltest du sie mir wert sein? Ich hab besseres verdient als KI-Slop – ich hab' deine Zeit verdient; ich bin kein ToDo, dass du dringend abhaken musst. Melde dich meinetwegen seltener, aber dann persönlich.
Du mit Kolleg:innen kommunizierst
Im vergangenen September prägten Forschende aus Stanford den Begriff 'Workslop' (hatte ich hier im Blog). Und dummerweise greift der massiv um sich. Selbst in meiner Firma ist das Satz „Ich hab' mal Chatty gefragt“ so dermaßen inflationär in Diskussionen zu hören mittlerweile, ich möchte in Tischkanten beißen. Leute, nutzt euer Gehirn – Chatty kann ich selbst fragen. Und deine ungefilterte KI-Kacke verlangt mir mehr ab, als dir – wieso soll das bitte fair sein, dein Nicht-Nachdenken mir aufzubürden? Klar, die Entwicklung wird von Unternehmen am Ende forciert, wenn man Microsoft CoPilot integriert, der auf Mails antworten soll, oder überall Chatbots einführt. Aber niemand kann dich zwingen … Insofern: Lass uns doch bitte am Arbeitsplatz nicht zu KI-Sklaven werden …
Menschen nicht eingewilligt haben, KI-Inhalte zu empfangen
Siehe Punkt oben: „Ich hab' mal Chatty gefragt…“ … nee, lass gut sein. Das ist, als würdest du mir vor die Füße kotzen.
Ähnlich halte ich es mit Newslettern und Online-Texten, die von KI erzeugt wurden und nicht kenntlich gemacht sind – ich komme mir dann einfach betrogen vor. Es ist vollkommen okay, die eigenen Dinge von KI checken zu lassen. „ChatGPT-Copypasta? Verschon uns bitte“, schreibt das SMWB und ich schließe mich an.
Der Prozess Teil des Ergebnis ist
„Wenn man Denken an LLMs auslagert, werden andere und weniger Areale im Hirn aktiv (SMWB) […] Auch wenn das Ergebnis gut sein mag, bleibt bei uns oft weniger hängen.“ Lesen, Verstehen, Schreiben – all das gehört zum Prozess des Verarbeitens, Denkens und des Entstehens dazu und ist immens wichtig. Ja, auch ich nutze KI-Zusammenfassungen – jedoch ausschließlich bei Themen, die mir weniger wichtig sind: Was der organgene Affe in Washington heute angestellt hat, muss ich nicht seitenlang lesen, dass kann die KI in drei Sätzen zusammenfassen. Wieso sich gerade alle über irgend eine Talkshow aufregen – here you go, Perplexity. Bei allem, was ich aber verarbeiten muss, investiere ich Zeit und lese mich durch …
Die Antwort richtig sein muss
Moderne LLMs konfabulieren seltener – trotzdem sind es eben keine Wahrheitsmaschinen, sondern Wahrscheinlichkeitsmaschinen. Bedeutet: Alles, was ein LLM dir erzählt, solltest du gegenchecken. Hervorragend lässt sich das an stritigen oder aktuellen Themen testen: Claude AI zum Beispiel fungiert als Lektor meines kleinen Newsletters. Regelmäßig weist es mich dann darauf hin, dass ein eine aktuelle Entwicklung fehlerhaft sei, oder korrigiert mich. LLMs kommen vor allem bei aktuellen Entwicklungen ins Straucheln. Das mag sich mittlerweile verbessert haben, wenn man sie konkret anweist zu recherchieren – aber wenn die Quellen mittlerweile zu einem bedeutenden Teil auch die KI-generierte Grokipedia von Elon Musk, YouTube Videos und reddit sind, sollte man den Kopf zumindest eingeschaltet lassen und die Ergebnisse kritisch prüfen.
Was meinst Du? Deal?
Dein Kommentar