DE | EN
Sitemap | Impressum
web2.0 Diaspora Vimeo Wir in der taz Wir bei Mastodon A-FsA Song RSS Twitter Youtube Unsere Artikel bei Tumblr Unsere Bilder bei Flickr Aktion FsA bei Wikipedia Spenden Facebook Bitmessage BlueSky Zugriff im Tor-Netzwerk https-everywhere
09.09.2025 Suchtverhalten bei KI-Nutzung

Zu viel Persönlichkeit nutzt/schadet dem Geschäft?

Vor der Antwort auf diese Frage stehen z.Zt. die Macher des KI-Systems von Open AI. Nach dem Wechsel von ChatGPT-4 zu Nummer 5 wird das Model-Behavior-Team neu zusammen gesetzt. Das alte Team hatte die Entwicklung der Versionen 1-4 begleitet und auch zu den Änderungen in der Version 5 beigetragen. In welche Richtung nun die künftige Gestaltung des KI-Bots gehen wird, ist offen.

Nach der Veröffentlichung von Version 5 gab es bei den NutzerInnen viel Frust, weil sie (u.a.) die "wärmere Stimme" des Vorgängers GPT-4 vermissen. Im Grunde ist es mehr, ForscherInnen bezeichnen die Beziehung als "Sycophancy". Das bezeichnet die Tendenz von KI-Systemen ihren NutzerInnen zu schmeicheln oder ihnen ungeprüft zuzustimmen auch wenn die Inhalte ungeprüft, falsch oder sogar für diese gefährlich sein können.

Wir hatten vor 2 Wochen bereits über das Entgegenkommen von Menschen gegenüber einer KI berichtet, wenn diese ihnen durch "eigene Erzählungen aus ihrem Leben" menschlicher erscheint.

An der Universität Princeton wurde dafür sogar ein "Bullshit-Index" entwickelt, der misst, wie gleichgültig KI-Modelle mit korrekten Aussagen umgehen. Nun konnte festgestellt werden, dass KI Modelle bei den (meisten) Menschen beliebter empfunden werden, wenn sie bei diesem Index hohe Werte aufweisen.

Mit einem entsprechenden Design in Darstellung und Sprache des System lassen sich weitere Merkmale ausprägen, die die NutzerInnen anziehen und sie dazu verleiten, sich dem System anzuvertrauen. Dieses Suchtpotential kann laut t3n so groß werden, dass PsychologInnen schon Alarm schlagen und inzwischen sogar von "KI-Psychosen" sprechen, die durch die Nutzung von Tools wie ChatGPT verursacht werden können. Die Eltern eines 16-Jährigen verklagen derzeit Open AI nachdem sich ihr Sohn vor seinem Tod seine Suizidgedanken mit ChatGPT geteilt hatte.

Mehr dazu bei https://t3n.de/news/umstrukturierung-bei-openai-wenn-die-persoenlichkeit-von-chatgpt-zum-problem-wird-1706116/


Kategorie[21]: Unsere Themen in der Presse Short-Link dieser Seite: a-fsa.de/d/3Kb
Link zu dieser Seite: https://www.a-fsa.de/de/articles/9275-20250909-suchtverhalten-bei-ki-nutzung.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/9275-20250909-suchtverhalten-bei-ki-nutzung.html
Tags: #OpenAI #BehaviorTeam #AI #KI #Sympathie #sozial #zugewandt #Studie #Überwachung #Ausforschung #Werbung #Manipulation #Verbraucherdatenschutz #BullshitIndex #Verhaltensänderung #Realität #Suchtverhalten
Erstellt: 2025-09-09 07:25:48
Aufrufe: 150

Kommentar abgeben

Für eine weitere vertrauliche Kommunikation empfehlen wir, unter dem Kommentartext einen Verweis auf einen sicheren Messenger, wie Session, Bitmessage, o.ä. anzugeben.

Geben Sie bitte noch die im linken Bild dargestellte Zeichenfolge in das rechte Feld ein, um die Verwendung dieses Formulars durch Spam-Robots zu verhindern.

CC Lizenz   Mitglied im European Civil Liberties Network   Bundesfreiwilligendienst   Wir speichern nicht   World Beyond War   Tor nutzen   HTTPS nutzen   Kein Java   Transparenz in der Zivilgesellschaft

logos Mitglied im European Civil Liberties Network Creative Commons Bundesfreiwilligendienst Wir speichern nicht World Beyond War Tor - The onion router HTTPS - verschlüsselte Verbindungen nutzen Wir verwenden kein JavaScript Für Transparenz in der Zivilgesellschaft