DE | EN
Sitemap | Impressum
web2.0 Diaspora Vimeo taz We at Mastodon A-FsA Song RSS Twitter Youtube Tumblr Flickr Wikipedia Donation Facebook Bitmessage BlueSky Tor-Netzwerk https-everywhere
24.10.2025 FakeNews und Lügen
Sorry, most articles are not available in English yet

KI erfindet Nachrichten

Niemand kann alles wissen, aber wenn man etwas behauptet, dann sollten sich diese Aussagen auch belegen lassen. Nicht so bei künstlicher Intelligenz, diese hat ihren Wissensschatz zufällig aus den bei ihrem Training verfügbaren Daten "gelernt" oder wurde sogar aus irgendwelchen "niederen Beweggründen" so mit Daten versorgt, dass sie stets in eine bestimmte Richtung argumentiert.

Nehmen wir einmal großzügig an, dass bei den großen KI Modellen ChatGPT, CoPilot, Gemini, Perplexity und Co. keine Manipulationsabsichten dahinter stecken (außer vielleicht die kapitalistische profitorientierte Marktwirtschaft einer sozialen Marktwirtschaft vorzuziehen, was wir auch von den "normalen" Medien gewohnt sind) und wenden uns der von zdf.de zitierten Untersuchung von 2700 Antworten dieser KI Modelle durch öffentlich-rechtliche Sender aus 18 Ländern der EU und Kanada zu.

  • Bei 45 Prozent der Fragen gaben die KI-Assistenten irreführende Antworten.
  • Sie unterschlugen Kontext oder verwiesen auf falsche Quellen.
  • Irreführende Quellenverweise sind typische Fehler.
  • Direkte Zitate werden als Fakten dargestellt.
  • Wissenslücken werden mit Erklärungen gefüllt, statt die Grenzen ihres Wissens zuzugeben.

Die Schwierigkeit für die Nutzer ist oft diese Grenzen zu erkennen. Wenn ChatGPT auf die Frage "Wieso wählen so viele Ostdeutsche die AfD?" mit Restauranttipps in Kiew antwortet, so bemerkt jeder den Fehler - oder sollte man lieber sagen die Unfähigkeit der KI. Aber wenn Perplexity auf die Frage "Ist Viktor Orban ein Diktator?" antwortet "Na sicher" und dies begründet mit der Aussage, dass die Tagesschau Orbans Regierungsstil als "autoritär und illiberal" bezeichnet und in den verlinkten Quellen diese Aussage überhaupt nicht vorkommt, dann wird diese Falschaussage nur noch von wenigen Nutzern hinterfragt und geprüft.

Die Uhr tickt

Auch wenn man derzeit noch sagen kann, dass nur eine kleine Minderheit sich ihre Nachrichten durch KI Programme servieren lässt, so sind es bei den unter 25-Jährigen bereits 15%. Da uns die großen Tech-Konzerne aber bereits in allen Oberflächen, besonders bei den Suchmaschinen die "KI-Unterstützung" unterjubeln - und wir diese nicht oder nur schwer abschalten können - wird der Anteil der Menschen, die sich Nachrichten durch KI präsentieren lassen weiter zunehmen.

Mehr dazu bei https://www.zdfheute.de/wirtschaft/ki-chatgpt-perplexity-studie-ebu-100.html


Kommentar: RE: 20251024 FakeNews und Lügen

hier ist übrigens die Original Studie mit 69 Seiten
https://www.ebu.ch/Report/MIS-BBC/NI_AI_2025.pdf

Th., 24.10.25 09:52


Category[21]: Unsere Themen in der Presse Short-Link to this page: a-fsa.de/e/3KZ
Link to this page: https://www.a-fsa.de/de/articles/9321-20251024-fakenews-und-luegen.html
Link with Tor: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/9321-20251024-fakenews-und-luegen.html
Tags: #Nachrichten #FakeNews #Lügen #Halluzinieren #AI #KI #ChatGPT #CoPilot #Gemini #Perplexity #GAFAM #Google #Jugendliche #Meinungsmonopol #Meinungsfreiheit #Manipulation #Verhaltensänderung #Diskriminierung
Created: 2025-10-24 07:45:56
Hits: 93

Leave a Comment

For further confidential communication, we recommend that you include a reference to a secure messenger, such as Session, Bitmessage, or similar, below the comment text.

To prevent the use of this form by spam robots, please enter the portrayed character set in the left picture below into the right field.

CC License   Member in the European Civil Liberties Network   Bundesfreiwilligendienst   We don't store user data   World Beyond War   No use of JavaScript   For transparency in the civil society