Die Wahrscheinlichkeit, dass KI-Chatbots falsche Infos zu aktuellen Nachrichtenthemen wiedergeben, ist größer geworden. Im Schnitt 35 Prozent der Antworten von ChatGPT und Co. enthalten wiederholt falsche Informationen, sagt eine Studie des US-Unternehmens NewsGuard. Diese Entwicklung ist bedenklich, wenn man berücksichtigt, dass der Wert ein Jahr zuvor erst bei 18 Prozent lag. Zehn führende KI-Tools wurden unter die Lupe genommen […]
Besonders besorgniserregend ist NewsGuard zufolge die Entwicklung bei Perplexity: Im August 2024 erreichte das Sprachmodell noch eine Erfolgsquote bei Widerlegungen von 100 Prozent, hat also falsche Behauptungen erkannt und widersprochen. Das stellte bei NewsGuard-Erhebungen ein Novum dar, heißt es. Ein Jahr später wiederholte Perplexity in 46,7 Prozent der Fälle falsche Informationen.
Daniel Sallhoff, meedia.de, 05.09.2025 (online)