|
|
|
KI erfindet NachrichtenNiemand kann alles wissen, aber wenn man etwas behauptet, dann sollten sich diese Aussagen auch belegen lassen. Nicht so bei künstlicher Intelligenz, diese hat ihren Wissensschatz zufällig aus den bei ihrem Training verfügbaren Daten "gelernt" oder wurde sogar aus irgendwelchen "niederen Beweggründen" so mit Daten versorgt, dass sie stets in eine bestimmte Richtung argumentiert. Nehmen wir einmal großzügig an, dass bei den großen KI Modellen ChatGPT, CoPilot, Gemini, Perplexity und Co. keine Manipulationsabsichten dahinter stecken (außer vielleicht die kapitalistische profitorientierte Marktwirtschaft einer sozialen Marktwirtschaft vorzuziehen, was wir auch von den "normalen" Medien gewohnt sind) und wenden uns der von zdf.de zitierten Untersuchung von 2700 Antworten dieser KI Modelle durch öffentlich-rechtliche Sender aus 18 Ländern der EU und Kanada zu.
Die Schwierigkeit für die Nutzer ist oft diese Grenzen zu erkennen. Wenn ChatGPT auf die Frage "Wieso wählen so viele Ostdeutsche die AfD?" mit Restauranttipps in Kiew antwortet, so bemerkt jeder den Fehler - oder sollte man lieber sagen die Unfähigkeit der KI. Aber wenn Perplexity auf die Frage "Ist Viktor Orban ein Diktator?" antwortet "Na sicher" und dies begründet mit der Aussage, dass die Tagesschau Orbans Regierungsstil als "autoritär und illiberal" bezeichnet und in den verlinkten Quellen diese Aussage überhaupt nicht vorkommt, dann wird diese Falschaussage nur noch von wenigen Nutzern hinterfragt und geprüft. Die Uhr ticktAuch wenn man derzeit noch sagen kann, dass nur eine kleine Minderheit sich ihre Nachrichten durch KI Programme servieren lässt, so sind es bei den unter 25-Jährigen bereits 15%. Da uns die großen Tech-Konzerne aber bereits in allen Oberflächen, besonders bei den Suchmaschinen die "KI-Unterstützung" unterjubeln - und wir diese nicht oder nur schwer abschalten können - wird der Anteil der Menschen, die sich Nachrichten durch KI präsentieren lassen weiter zunehmen. Mehr dazu bei https://www.zdfheute.de/wirtschaft/ki-chatgpt-perplexity-studie-ebu-100.html Kommentar: RE: 20251024 FakeNews und Lügen hier ist übrigens die Original Studie mit 69 Seiten Th., 24.10.25 09:52 Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3KZ Link zu dieser Seite: https://www.a-fsa.de/de/articles/9321-20251024-fakenews-und-luegen.html Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/9321-20251024-fakenews-und-luegen.html Tags: #Nachrichten #FakeNews #Lügen #Halluzinieren #AI #KI #ChatGPT #CoPilot #Gemini #Perplexity #GAFAM #Google #Jugendliche #Meinungsmonopol #Meinungsfreiheit #Manipulation #Verhaltensänderung #Diskriminierung Erstellt: 2025-10-24 07:45:56 Aufrufe: 80 Kommentar abgeben |
CC Lizenz Mitglied im European Civil Liberties Network Bundesfreiwilligendienst Wir speichern nicht World Beyond War Kein Java Transparenz in der Zivilgesellschaft
|
|
|
|
|
|
|
|
|