Zitiert: Mehr als ein Drittel der Chatbot-Antworten enthalten falsche Behauptungen

Die Wahrscheinlichkeit, dass KI-Chatbots falsche Infos zu aktuellen Nachrichtenthemen wiedergeben, ist größer geworden. Im Schnitt 35 Prozent der Antworten von ChatGPT und Co. enthalten wiederholt falsche Informationen, sagt eine Studie des US-Unternehmens NewsGuard. Diese Entwicklung ist bedenklich, wenn man berücksichtigt, dass der Wert ein Jahr zuvor erst bei 18 Prozent lag. Zehn führende KI-Tools wurden unter die Lupe genommen […]

Besonders besorgniserregend ist NewsGuard zufolge die Entwicklung bei Perplexity: Im August 2024 erreichte das Sprachmodell noch eine Erfolgsquote bei Widerlegungen von 100 Prozent, hat also falsche Behauptungen erkannt und widersprochen. Das stellte bei NewsGuard-Erhebungen ein Novum dar, heißt es. Ein Jahr später wiederholte Perplexity in 46,7 Prozent der Fälle falsche Informationen.

Daniel Sallhoff, meedia.de, 05.09.2025 (online)

Onlinefilm.org

Zitat der Woche
Gut zur Entgiftung des öffentlichen Diskurses wäre es, auch in den Beiträgen jener, die anders denken als man selbst, die klügsten Gedanken zu suchen, nicht die dümmsten. Man läuft natürlich dann Gefahr, am Ende nicht mehr uneingeschränkt Recht, sondern einen Denkprozess in Gang gesetzt zu haben.   Klaus Raab, MDR-Altpapier, 25.05.2020, (online)    
Out of Space
Auf seinem YouTube-Kanal „Ryan ToysReview“ testet der kleine Amerikaner Ryan seit März 2015 allerhand Spielzeug. Die Beschreibung des erfolgreichen Channels ist simpel: „Rezensionen für Kinderspiele von einem Kind! Folge Ryan dabei, wie er Spielzeug und Kinderspielzeug testet.“ Ryan hat 17 Millionen Abonnenten und verdient 22 Millionen Dollar im Jahr. Berliner Zeitung, 04.12.2018 (online)