Regeln, Einsatzzwecke und Fehler für die eigene KI-Nutzung
- Erst denken, dann KI fragen.
- KI-Output allein ist keine Quelle.
- Sensible Daten haben in einem KI-System nichts verloren.
- Abgesehen von Übersetzungen übernehmen wir niemals KI-generierten Text – weder beruflich noch privat.
Vier wichtige Leitlinien, die ich privat und beruflich nicht müde werde zu wiederholen – und die das Social Media Watchblog in seiner aktuellen Ausgabe wunderbar auf den Punkt bringt.
Ich würde sogar noch eine fünfte hinzu nehmen; bzw. die zweite abwandeln
- Verlasse dich nicht ohne Prüfung auf die KI
Ich finde, vor allem dieses muss noch mehr in die Köpfe. Large Language Modelle sind Sprachmodelle – und wie Menschen können sie sich irren, die falschen Quellen nutzen oder einfach nur Dinge ausdenken. Eine KI ist wie ein Praktikant - praktisch, aber checke den Output lieber noch einmal (und damit will ich Praktikant:innen nicht beleidigen; in der Regel prüft man deren Arbeit, damit man loben und bei Fehlern lernen kann). Vor allem, wenn es um Fakten geht.
Having said this, bietet die aktuelle und kostenlos zugängliche, SMW-Ausgabe darüber hinaus gute Erklärungen der verschiedenen KI-Modelle, Tipps sowie Prompt-Hinweise, welche Tools das Team für den Newsletter zur Arbeitserleichterung einsetzt. Wirklich praktisch.
Persönlich nutze ich Claude.AI Pro als meinen Sparing-Partner im Alltag für den Gedankenaustausch, das prüfen von Ideen, darüber ist er Lektor für meinen Social-Media-Newsletter und ich Helfer bei Problemen für PHP-Code (auch, wenn ich mir der Kopfschmerzen bewusst bin, die ich genau damit bei meinen programmierenden Leser:innen auslöse). Warum Claude? Weil ich im direkten Vergleich mit ChatGPT finde, dass Claude sprachlich fitter ist. Darüber hinaus nutze ich die kostenpflichtige Version von Languagetool und DeepL (meist nur, um Worte oder Phrasen von Deutsch nach Englisch zu übersetzen).
Ich könnte hier und da sicherlich noch mehr Tools einsetzen, um meinen Alltag bequemer zu machen … Aber die ethischen und ökologischen Aspekte von KI beschäftigen mich durchaus auch, weshalb ich im Alltag liebend gern auf bild- und videoerzeugende KI verzichte und bei einfachen Fragen Google – oder mittlerweile lieber Ecosia (keine KI-Zusammenfassung!) – nutze.
Persönlich nutze ich nur freie Version von deepl für kurze Übersetzungen, wenn der Abstract mal wieder in der falschen Sprache vorliegt, würde aber deinen Regeln sehr zustimmen. Regel 1 hat mich umgehauen 🙂
Die beste Beschreibung, die ich gehört habe, war "KI arbeitet wie ein unbezahlter Praktikant". Und genau wie ich niemals nicht nie etwas von einem Praktikanten ohne Prüfung produktiv geben würde, so etwas von einer KI. Sie kann schnell arbeit erledigen und Sachen beschleunigen - und sie kommt auf Ideen, die ich nicht hätte. Aber halt alles in einer komplett unvorhersehbaren Qualität. Wie halt Praktikant*innen.
Bei Regel 1 bin ich mir allerdings nicht so sicher. Gerade wenn ich grad gar keine Idee habe, werf ich gerne ein paar Wörter richtung Halluzinator und schaue was zurückkommt. So irgendwas zwischen Zufallsgenerator und modernem I Ging. Nicht, weil das Ergebnis sinnvoll ist, sondern weil es bei mir Synapsen in Bewegung bringt.
Auch da denkst du vorher aber nach und weisst, was du raus bekommen willst; und da geht es nicht um Fakten sondern ein Hin- und Her-Werfen, das meine ich oben bspw. mit "Sparing-Partner", ich nutze Claude mitunter eben so.
Sparing-Partner für den Gedankenaustausch - gute Beschreibung, mache ich auch und finde KI da wirklich hilfreich. Beispiel aus meiner derzeitigen Filmserie im Blog. Ich sehe eine Szene und denke: Wow, das erinnert mich echt an eine Szene aus einem ganz anderen Buch. Das werfe ich ChatGPT hin und bekomme dann ganz gutes Feedback zu dem Gedanken, weil die KI diese Szenen deutlich präsenter hat als ich in meiner Erinnerung. Da ist Wissen abrufbar, das per Google nicht wirklich zur Verfügung steht.