Erst durch stetiges, tausendfaches Wiederholen lernt das Programm, welche Inhalte unerwünscht sind und welche nicht. Werden also künftig nur Maschinen entscheiden, was als Hassrede, Desinformation oder inakzeptabel gilt – allein basierend auf statistischen Modellen? „Digitale Plattformen brauchen Menschen mit lokalem Wissen, um ein Mindestmaß an Sicherheit der Inhalte sicherzustellen“, sagt etwa Aline Blankertz, Leiterin des Bereichs Technologiewirtschaft bei der Kölner Anti-Monopolorganisation Rebalance Now. „KI-basierte Moderation besitzt gerade in Grenzfällen keine ausreichende Sensibilität und Abwägungsfähigkeit.“
Dass die automatisierten Algorithmen Probleme mit ihrer Kalibrierung, mit der Interpretation menschlichen Verhaltens oder gar der freiheitlich demokratischen Grundordnung haben, kam in der Vergangenheit immer wieder vor. Da werden Fotos von stillenden Müttern wegen vermeintlicher Sexualisierung gesperrt und hemmungslose Gewaltdarstellungen derweil durchgewinkt. […]
Was passiert, wenn Moderationsprogramme durch KI ersetzt oder gleich ersatzlos gestrichen werden, konnte man nach der Übernahme von Twitter durch Elon Musk beobachten. Seitdem aus der Kurznachrichtenplattform X geworden ist, ist sie voll mit Sex-Werbung, rechter Propaganda und KIs, die sich für Hitler halten. Die Arbeit von menschlichen Content-Moderatoren – zu akzeptablen Bedingungen – wäre heutzutage wichtiger denn je. Schließlich türmt sich auf der anderen Seite geradezu eine Tsunamiwelle aus Schrott-Inhalten und Fake News auf – produziert wiederum von der gleichen Kraft, die die Menschen nun ersetzen soll: der KI.
Michael Moorstedt, sueddeutsche.de, 22.07.2025 (online)