Die Inhalte im Netz, all die Textmengen, mit denen die KI lernt, werden schlechter werden. Früher waren das nahezu ausschließlich von Menschen geschriebene Texte, da war natürlich auch Quatsch dabei, aber nicht so viel. Nun aber werden immer mehr KI-generierte Inhalte automatisiert ins Internet gespült, die fehlerhaft sind. In den vergangenen Monaten sind zwei Studien erschienen, die voraussagen, dass das Internet schon in den nächsten Jahren praktisch tot sein wird, in dem Sinne, dass dort sehr viel Müll herumschwimmen wird. Die echten Informationen werden immer schwieriger zu finden sein. Das wird sich dann auch auf die Qualität der Ergebnisse der KI-Modelle auswirken. Sie werden immer weniger Sicherheit haben, ob die Fakten in den Texten stimmen. Bei den Formulierungen wird es außerdem immer mehr Einheitsbrei geben. Das hat auch mit den Algorithmen zu tun, die auf lange Sicht zum Mainstream tendieren. Ich merke das schon jetzt an dem Programm, das ich nutze, um Texte ins Englische zu übersetzen. Die Formulierungen waren früher deutlich besser, inzwischen muss ich sie häufiger korrigieren. […]
Die KI-Modelle, wie wir sie kennen, haben systemische Grenzen, über die während des großen Hypes gerade leider viel zu wenig gesprochen wird. Sie können nur anhand von vorhandenen Texten lernen. Es wird deshalb auch in Zukunft Menschen brauchen, die kreative Einfälle haben, die Themen gewichten, die schwer zugängliche Informationen recherchieren oder Fakten prüfen, so wie das Journalisten und viele andere Textarbeiterinnen tun. Menschen werden der KI auch 2035 noch etwas voraushaben.
Sabine Pfeiffer, sueddeutsche.de, 31.08.2025 (online)