Sie berichten ja nicht nur über KI, sondern sind auch mit am meisten davon betroffen. Weil gerade die Algorithmen der generativen KI wirklich in ihre direkten Handlungsbereiche reinfahren. Damit setzen sich viele jetzt schon intensiv auseinander: Wie geht man damit um, dass man mit ChatGPT schon recht ordentliche Texte formulieren kann? Wie schaffen wir es als Medien, unsere Tätigkeit abzugrenzen von KI-generierten Ergebnissen? Was ist das Besondere an uns, was unser Mehrwert? Wie gehen wir mit KI-Instrumenten um? Wie setzen wir sie gut ein, wie passen wir die Ausbildung an? Meine Empfehlung wäre, sich selbst Handlungsregeln zu geben, um der eigenen Professionsverantwortung zu entsprechen, ganz proaktiv. Da ist schon ganz viel im Fluss in der Branche. Daher erhoffe ich mir auch, dass Ideen und Konzepte entwickelt werden, von denen Branchen, die noch nicht so direkt betroffen sind, lernen können. […]
Transparenz ist extrem wichtig. Auch wenn sie ein imperfektes Instrument ist, bin ich ein großer Fan einer Kennzeichnungspflicht. Sowohl für Texte als auch für Bilder. Bei Texten ist es deutlich schwieriger. Bei Fotos und Videos ist es technisch relativ gut zu machen, das sagen auch Akteure, die sich in dem Bereich sehr gut auskennen. Daran sollte der Qualitätsjournalismus auch ein Eigeninteresse haben: Ich ganz persönlich zum Beispiel will eher wenig keine KI-Contents lesen, die interessieren mich begrenzt. Ich will journalistische Inhalte lesen, von denen ich weiß, dass sie aus einer Quelle stammen, der ich vertraue und zu der ich eine Beziehung habe. Jetzt bin ich natürlich als Medienkundin schon ein bisschen älter als andere. Aber auch bei Jüngeren, bei denen, die auf TikTok und anderswo Opfer werden von wildesten Manipulationen und Fake News, gilt: Es ist noch nie so wichtig gewesen, klar zu unterscheiden zwischen wahr und falsch. Und klar zu machen, aus welchen Quellen etwas stammt. Und dazu gehört für mich auch, dass man angibt, wenn etwas KI-generiert ist.
Alena Buyx, turi2.de, 19.02.2024 (online)