DE | EN
Sitemap | Impressum
web2.0 Diaspora Vimeo Wir in der taz Wir bei Mastodon A-FsA Song RSS Twitter Youtube Unsere Artikel bei Tumblr Unsere Bilder bei Flickr Aktion FsA bei Wikipedia Spenden Facebook Bitmessage BlueSky Zugriff im Tor-Netzwerk https-everywhere
24.10.2025 FakeNews und Lügen

KI erfindet Nachrichten

Niemand kann alles wissen, aber wenn man etwas behauptet, dann sollten sich diese Aussagen auch belegen lassen. Nicht so bei künstlicher Intelligenz, diese hat ihren Wissensschatz zufällig aus den bei ihrem Training verfügbaren Daten "gelernt" oder wurde sogar aus irgendwelchen "niederen Beweggründen" so mit Daten versorgt, dass sie stets in eine bestimmte Richtung argumentiert.

Nehmen wir einmal großzügig an, dass bei den großen KI Modellen ChatGPT, CoPilot, Gemini, Perplexity und Co. keine Manipulationsabsichten dahinter stecken (außer vielleicht die kapitalistische profitorientierte Marktwirtschaft einer sozialen Marktwirtschaft vorzuziehen, was wir auch von den "normalen" Medien gewohnt sind) und wenden uns der von zdf.de zitierten Untersuchung von 2700 Antworten dieser KI Modelle durch öffentlich-rechtliche Sender aus 18 Ländern der EU und Kanada zu.

  • Bei 45 Prozent der Fragen gaben die KI-Assistenten irreführende Antworten.
  • Sie unterschlugen Kontext oder verwiesen auf falsche Quellen.
  • Irreführende Quellenverweise sind typische Fehler.
  • Direkte Zitate werden als Fakten dargestellt.
  • Wissenslücken werden mit Erklärungen gefüllt, statt die Grenzen ihres Wissens zuzugeben.

Die Schwierigkeit für die Nutzer ist oft diese Grenzen zu erkennen. Wenn ChatGPT auf die Frage "Wieso wählen so viele Ostdeutsche die AfD?" mit Restauranttipps in Kiew antwortet, so bemerkt jeder den Fehler - oder sollte man lieber sagen die Unfähigkeit der KI. Aber wenn Perplexity auf die Frage "Ist Viktor Orban ein Diktator?" antwortet "Na sicher" und dies begründet mit der Aussage, dass die Tagesschau Orbans Regierungsstil als "autoritär und illiberal" bezeichnet und in den verlinkten Quellen diese Aussage überhaupt nicht vorkommt, dann wird diese Falschaussage nur noch von wenigen Nutzern hinterfragt und geprüft.

Die Uhr tickt

Auch wenn man derzeit noch sagen kann, dass nur eine kleine Minderheit sich ihre Nachrichten durch KI Programme servieren lässt, so sind es bei den unter 25-Jährigen bereits 15%. Da uns die großen Tech-Konzerne aber bereits in allen Oberflächen, besonders bei den Suchmaschinen die "KI-Unterstützung" unterjubeln - und wir diese nicht oder nur schwer abschalten können - wird der Anteil der Menschen, die sich Nachrichten durch KI präsentieren lassen weiter zunehmen.

Mehr dazu bei https://www.zdfheute.de/wirtschaft/ki-chatgpt-perplexity-studie-ebu-100.html


Kommentar: RE: 20251024 FakeNews und Lügen

hier ist übrigens die Original Studie mit 69 Seiten
https://www.ebu.ch/Report/MIS-BBC/NI_AI_2025.pdf

Th., 24.10.25 09:52


Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3KZ
Link zu dieser Seite: https://www.a-fsa.de/de/articles/9321-20251024-fakenews-und-luegen.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/9321-20251024-fakenews-und-luegen.html
Tags: #Nachrichten #FakeNews #Lügen #Halluzinieren #AI #KI #ChatGPT #CoPilot #Gemini #Perplexity #GAFAM #Google #Jugendliche #Meinungsmonopol #Meinungsfreiheit #Manipulation #Verhaltensänderung #Diskriminierung
Erstellt: 2025-10-24 07:45:56
Aufrufe: 80

Kommentar abgeben

Für eine weitere vertrauliche Kommunikation empfehlen wir, unter dem Kommentartext einen Verweis auf einen sicheren Messenger, wie Session, Bitmessage, o.ä. anzugeben.

Geben Sie bitte noch die im linken Bild dargestellte Zeichenfolge in das rechte Feld ein, um die Verwendung dieses Formulars durch Spam-Robots zu verhindern.

CC Lizenz   Mitglied im European Civil Liberties Network   Bundesfreiwilligendienst   Wir speichern nicht   World Beyond War   Kein Java   Transparenz in der Zivilgesellschaft