Bei den neusten „Innovationen“ von Open AI ist ein Anstieg von Desinformation vorprogrammiert. Regulierung und technische Antworten darauf laufen aber oft ins Leere. Es ist an der Zeit, dass KI-Unternehmen von vornherein den Nutzen ihrer Produkte beweisen müssen, finden Jürgen Pfeffer von der TU München und Matthias Pfeffer vom Council for European Public Space – bevor die Demokratie noch mehr Schaden nimmt. […]
„Eine Idee wäre es, vor der flächendeckenden Einführung solcher KI-Systeme erst einmal über ihren sinnvollen Einsatz nachdenken: Wo ist das gesellschaftliche Problem, das wir damit lösen wollen? Sollen Abläufe und Zugänge vereinfacht werden oder Journalisten, Schauspieler und Kreative ersetzt werden? Und generell: wer haftet für die Folgen?
Schon lange steuern Algorithmen die Informationsflüsse und übernehmen immer stärker die Rolle von Gatekeepern der öffentlichen Meinung. Mit der automatisierbaren Erzeugung von Texten, Bildern, Videos, und jetzt auch Stimmen sind sie nun in der Lage, auch die Produktion der Informationen zu steuern, und zwar in einer Weise, die die Quellen verschüttet, aus denen sie sich speisen. Ungebremst führt diese Entwicklung direkt in eine Ära der strukturellen Desinformation. Wozu soll das gut sein, und wollen wir weiterhin, dass die Instrumente dazu ungeprüft auf den Markt gebracht werden?“
tagesspiegel.de, 21.05.2024 (online)