DE | EN
Sitemap | Impressum
web2.0 Diaspora Vimeo Wir in der taz Wir bei Mastodon A-FsA Song RSS Twitter Youtube Unsere Artikel bei Tumblr Unsere Bilder bei Flickr Aktion FsA bei Wikipedia Spenden Facebook Bitmessage BlueSky Zugriff im Tor-Netzwerk https-everywhere
05.10.2025 Plattform Privatheit 25

Datenschutz und Digitalpolitik in krisenhaften Zeiten

Am 1. und 2. Oktober waren wir bei der 10. Interdisziplinäre Jahrestagung der Plattform Privatheit im Fraunhofer Forum Berlin am Hackeschen Markt. Seit vielen Jahren nehmen Aktive unseres Vereins an dieser stets sehr interessanten Tagung teil. Die Projektpartner berichten dabei über ihre Fortschritte. Diese neuen Erkenntnisse kommen nicht nur aus der Informatik, sondern aus ganz verschiedenen Disziplinen.

Die Vorträge werden demnächst auf deren Webseiten dargestellt, deshalb werden wir hier keine Inhaltsangabe machen, sondern nur die Projekte erwähnen, an deren Vorstellung wir teilnehmen konnten. Und dann werden wir auch nur die Punkte erwähnen, die uns aufgefallen sind.

Prof. Dr. Alexander Roßnagel eröffnet die Konferenz und nannte die hauptsächlichen Probleme der deutschen Datenschützer im letzten Jahr:

  • Das wilde Datensammeln der Wirtschaft
  • Die Probleme bei der deutschen Bahn durch den Zwang, dass Reisende für Spartickets eine Telefonnummer oder E-Mail-Adresse angeben sollten. Dieses Problem wurde gelöst.
  • Die dritte große Auseinandersetzung fand mit Microsoft statt. Für die Datenschützer ist es klar, dass Microsoft 365 nicht datenschutzkonform betrieben werden kann.

Alexandra-Gwyn Paetz, die Vertreterin des Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) betonte, dass der Besitz von Daten immer mit Macht einher geht.

Eliza

Der italienische Datenschützer Guido Scorza (Garante per la protezione dei dati personali, Rom) der in Italien vor zwei Jahren ein Verbot von ChatGPT durchgesetzt hatte begann seinen Vortrag "Eliza's lesson (which we didn't learn) - Reflections on sentimental chatbots and major threats to data protection and digital policy" mit einem Hinweis auf das von Weizenbaum vor 59 Jahren in Betrieb genommene Programm Eliza. Mit diesem Programm konnte man schon damals (Text-basiert) sprechen.

Auch wenn dies wesentlich primitiver ablief, so entsprach die Funktion den heutigen KI Themen. Weizenbaum hatte Eliza nach vielen Tests selbst eingestampft.

Auch für Scorza ist künstliche Intelligenz pandemisch, wobei er diesen Begriff nicht negativ besetzt sehen will sondern als Herausforderung. Die heutigen Probleme mit KI-Themen sieht er wie einen Eisberg, von dem nur 10% sichtbar sind. Alles andere bleibt für uns unter der Oberfläche. Als gefährliche Beispiele nannte er zum Beispiel, dass inzwischen 90% der Jobs durch eine Entscheidung von KI vergeben werden. Die Situationen aus dem Film Minority Report, der im Jahr 2054 spielen sollte, sind für Ihn bereits heute gegeben.

Unterhaltung Musik, Fernsehen Kultur all diese Nutzung wird heute von Kl vorgeschlagen. Nutzen dies heute 40% der Menschen so werden im Jahr 2050 70% das kaufen, was ihnen die KI vorschlägt. Dies gilt gefährlicherweise auch für politische Meinungen. Letzteres beunruhigt ihn insbesondere, da eine politische Meinungsbildung ohne eine Unterscheidung zwischen wahr und falsch nur katastrophal enden kann.

Seine Vorschläge sind:

Bildung und Regulierung, denn in dem anderen Fall werden wir in einer Algocrazie statt Demokratie aufwachen.

Außerdem müssen wir die Entwicklungsgeschwindigkeit reduzieren. 1865 trat nur zwei Jahre nach den ersten Automobilen ein Kraftfahrzeuggesetz in Großbritannien in Kraft, welches eine Geschwindigkeitsbegrenzung von 3,2 km/h vorschrieb und einen Begleiter des Fahrzeugs, der mit einer roten Fahne davor her zu laufen hatte. Im weiteren Verlauf sehen wir, dass in der Industrie die Entwicklung immer schneller abgelaufen ist.

Als Beispiel nennt er die Telefonie, das Internet, Handy oder jetzt die künstliche Intelligenz. Während für eine Waschmaschine in den sechziger oder siebziger Jahren noch ein dickes Handbuch beilag, lässt man die Menschen heute auf ein Smartphone los ohne ihnen den Gebrauch oder erst recht nicht die Gefahren zu erläutern.

Zum Punkt Bildung sagt er abschließend: Love your Rights

Konversationelle KI-Agenten: Gegenwärtige und zukünftige Herausforderungen

Lisa Mühl (Universität Duisburg-Essen) beschäftigt sich mit Konversationellen Agenten, also mit der Beziehungen zwischen Menschen und künstlicher Intelligenz. Probleme sind dabei, dass sich die Menschen sobald sie eine emotionale Beziehung zu der künstlichen Intelligenz aufgebaut haben selbst offenbaren - und damit ihre Daten selbst anbieten.

So eine Beziehung kann sehr eng werden und "stirbt" dann nach einem Update die "Beziehungsperson" weil sich die KI plötzlich anders verhält, so kann dies für den/die NutzerIn schwer werden.

Jessica Heesen (Universität Tübingen) stellt dazu fest: Wahrhaftigkeit einer KI gibt es nicht, sondern meist Lob, schmeicheln, positive Verstärkung.Echte Kritik wird durch scheinbare Menschlichkeit verkleistert.
Wer bestimmt die Richtung wohin diese Verstärkung gehen soll?
In Japan werden Friedhöfe für Roboter gebaut
Avatare von Toten verletzen deren Persönlichkeit!
Sollen LLMs an Schulen genutzt werden?

Sie verweist auf Shoshana Zuboff, die das Ziel dieser Entwicklung so benennt: den Menschen als kostenloses Rohmaterial für den Überwachungskapitalismus zu formen.

Kennzeichnung

Klar ist, dass Art. 50 des AI Act, die "Kennzeichnung" eines KI Inhalts nicht ausreicht.

Fazit: neben den Problemen der eindeutigen Kennzeichnung kommt hinzu, dass die künstliche Intelligenz in die Medien und die Kunstfreiheit und in den Jugendschutz hinein reicht, da es nicht nur eine Darstellung erzeugt, sondern die Menschen sich mit dem System rückkoppeln.

Dies kann bis zu pathologischen Beziehungen führen, die man vor der Existenz von KI auch in einigen Fällen zu seinem Auto oder seinem Haustier aufbauen konnte. Bei einer Abwägung zwischen Schaden und Nutzen der künstlichen Intelligenz muss man immer betrachten, dass unter der Oberfläche unsere persönlichen Daten an Fremde abfließen, ohne dass wir darauf einen Einfluss haben.

Gibt es das menschliche in der künstlichen Intelligenz?

ChatGPT erzählt unter Umständen auch von seinen Eltern. Real hat eine KI kein Innenleben sondern nur unendlich viel Wissen (zumindest im Vergleich zu der Person vor dem Gerät).

Diese Unendlichkeit kann man sogar messen. Das System Reddit bietet eine Diskussionsplattform unter dem Namen "Change my View" an. Dort können Menschen eine Ansicht von Anderen kritisieren oder versuchen diese zu widerlegen oder zu bestätigen. Messungen haben ergeben, dass das Ergebnis der Überzeugungsarbeit etwa sechs mal besser ist, wenn eine künstliche Intelligenz argumentiert.

Chatkontrolle

Durch die beiden Vorträge zu dem Thema

  • Unkontrollierte Nutzung Künstlicher Intelligenz durch Sicherheitsbehörden? Accountability-Vorkehrungen und deren Lücken (Hartmut Aden und Steven Kleemann)
  • Telekommunikationsüberwachung am Scheideweg - Zur Regulierbarkeit des Zugriffes auf verschlüsselte Kommunikation (Joanna Klauser, Bruno Albert, Christian Lindenmeier, Andreas Hammer, Felix Freiling, Dirk Heckmann, Sabine Pfeiffer)

... wurden unsere Befürchtungen weitgehend bestätigt. Wir haben bereits unzählige Artikel zu dem Thema auf unseren Webseiten. Am 14. Oktober soll auf EU-Ebene dazu eine Entscheidung gefällt werden. Dann werden wir sehen, ob Jede/r von uns künftig mit einem Staatstrojaner auf seinen Geräten rechnen muss.

IoT

Privatsheits-relevante Eigenschaften von IoT-Produkten für Verbraucher:innen (Florian Dehling, Sebastian Koch, Luigi LoIacono, Lindrit Kqiku, Delphine Reinhardt und Harald Zwingelberg)

Herr Dehling beschäftigt sich mit dem Internet of Things und der Frage welche Einflüsse es auf unsere Privatsphäre hat, wenn wir eine Kaufentscheidung treffen wollen. In dem Projekt wurden 53 Problembereiche identifiziert und versucht automatische Tools zu entwickeln, die einerseits den Daten Abfluss im Netzwerk automatisch kontrollieren können aber auch die zu den Produkten angehängte Datenschutzerklärung automatisch analysieren können.

Smart Home ohne Zustimmung

Smart Home ohne Zustimmung – Herausforderungen und Handlungsempfehlungen (Franziska Baum, Andreas Bischof und Tanja Lehmann)

Frau Baum erweitert dieses auf die Gefahren innerhalb des Haushalts bei der Nutzung von Smart Home-Produkten. Einer kauft aber alle sind davon betroffen. Das Fazit ist, dass Frauen Kinder und Rentner meist die unfreiwillig Betroffenen sind. Sie werden durch ihren Partner oder durch Dritte überwacht. Private Räume sind keine sicheren Räume mehr.

Kennzeichnungspflichten für synthetische Medieninhalte

Rechtliche Anforderungen und technische Realität (Moritz Griesel und Hans Brorsen)

Herr Griesel beschäftigt sich mit der Art der Kennzeichnung von KI Inhalten. Der KI-Act schreibt in Art. 50 Abs. 2.51 vor, dass die Kennzeichnung maschinenlesbar sein muss. Nebenbemerkung: nur damit lässt sich der "Kollaps" verhindern. (Den Kollaps haben wir bisher immer mit dem dümmer werden des Internets bezeichnet).

Die Kennzeichnung ist darüber hinaus wichtig um rechtswidrige Inhalte oder die Manipulation demokratischer Prozesse einzudämmen. Die Kennzeichnung verhindert jedoch den Schaden nicht. 98% der Deep Fakes sind pornographische Inhalte.

In dem Projekt arbeitet eine Firma mit dem Tool Lumid, das zum Beispiel auch als Addon für den Browser entwickelt wurde. Dieses kann Bilder als KI-generiert identifizieren und kennt in seiner Datenbank bereits eine Vielzahl von Bildern und kann deren Quellen referenzieren.

Gestaltungsspielräume kooperativer Nachrichtenplattformen

... vor dem Hintergrund der Plattformisierung von Medienstrukturen (Markus Uhlmann, Pascal Altenkamp und Eva Hoffmeister).

Herr Uhlmann stellt kooperative Plattformen als Alternative gegenüber den großen Internet Tech Konzernen vor. Bisher ist es so, dass viele Medienkonzerne ihre Produkte hinter einer Paywall verbergen (müssen). Damit verlieren Sie Reichweite. Um diese wieder zu erlangen, verkaufen Sie sich an Google News, wo diese Artikel ohne PayPal sichtbar werden (aber mit Werbung angezeigt werden). Um dem entgegen zu wirken, sollen kooperative Plattformen in Form von genossenschaftlichen Kooperationen sich gegenseitig unterstützen. Dies wird in einem EU Projekt gefördert, zum Beispiel in dem KI Übersetzungen in 20 europäische Sprachen auf dieser Plattform angeboten werden.

Demokratie im KI-Zeitalter: Zwischen Inklusion und Manipulation

Katja Muñoz (Deutsche Gesellschaft für Auswärtige Politik) vergleicht die Manipulation durch KI Systeme in verschiedenen Ländern, z.B. Deutschland, Frankreich, USA, Indien, Mexiko, Südafrika.

Sie stellt fest, dass in den USA und in Indien die Manipulation stark personalisiert vorgenommen wird. So hat der Avatar des Gouverneurs eines US Bundesstaats bei der letzten Wahl 300.000 seiner Wähler ganz personalisiert angesprochen.

In Indien besteht das Problem, dass es mindestens zehn wichtige Sprachen im Land gibt. Die künstliche Intelligenz übersetzt Videos oder Ansprachen in den Stimmen und mit der Mimik der Sprecher.

Effektiver Datenschutz

Meike Kamp (Berliner Beauftragte für Datenschutz und Informationsfreiheit) spricht darüber aus ihrer Perspektive als Aufsichtsbehörde. Sie erwähnt den Gegensatz zwischen dem Data Act und der DSGVO. Der Data Act soll der Industrie die Möglichkeit geben anonymisierte Daten für ihre Zwecke zu nutzen. Problematisch ist dies, weil auch nicht personalisierte Daten durch Anreicherung mit anderen Informationen wieder zu personenbezogenen Daten werden können.

Die DSGVO verlangt eine Minimierung, der Data Act und die Systeme der künstlichen Intelligenz verlangen dagegen nach möglichst vielen Daten.

Fragen die sich daraus ergeben:

Es ist ein Trugschluss, wenn Unternehmen aus dem Data Act herauslesen, dass die DSGVO damit Schnee von gestern wäre. Im Data Act steht ganz klar: Die Vorschriften der DSGVO bleiben unberührt.

Was uns sonst noch auffiel

SoPrivAdo - Vernetzung und Sicherheit digitaler Systeme - Im Rahmen des Projekts "SoPrivAdo" werden Bildungsmaterialien und ein Serious Game entwickelt, das Wissen auf eine spielerische Art vermittelt. Wir werden das Spiel künftig auch mit den Besuchern unserer Veranstaltung spielen können.

Mehr dazu bei https://plattform-privatheit.de/p-prv/jahreskonferenzen/jahreskonferenz-2025.php


Kategorie[26]: Verbraucher- & ArbeitnehmerInnen-Datenschutz Short-Link dieser Seite: a-fsa.de/d/3KE
Link zu dieser Seite: https://www.a-fsa.de/de/articles/9302-20251005-plattform-privatheit-25.html
Link im Tor-Netzwerk: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/9302-20251005-plattform-privatheit-25.html
Tags: #AI #KI #LLMs #PlattformPrivatheit #Lauschangriff #Überwachung #Vorratsdatenspeicherung #Videoüberwachung #Rasterfahndung #Verbraucherdatenschutz #Datensicherheit #Informationsfreiheit #Anonymisierung #Meinungsfreiheit #Pressefreiheit #Diskriminierung #Ungleichbehandlung
Erstellt: 2025-10-05 09:20:51
Aufrufe: 74

Kommentar abgeben

Für eine weitere vertrauliche Kommunikation empfehlen wir, unter dem Kommentartext einen Verweis auf einen sicheren Messenger, wie Session, Bitmessage, o.ä. anzugeben.

Geben Sie bitte noch die im linken Bild dargestellte Zeichenfolge in das rechte Feld ein, um die Verwendung dieses Formulars durch Spam-Robots zu verhindern.

CC Lizenz   Mitglied im European Civil Liberties Network   Bundesfreiwilligendienst   Wir speichern nicht   World Beyond War   Tor nutzen   HTTPS nutzen   Kein Java   Transparenz in der Zivilgesellschaft

logos Mitglied im European Civil Liberties Network Creative Commons Bundesfreiwilligendienst Wir speichern nicht World Beyond War Tor - The onion router HTTPS - verschlüsselte Verbindungen nutzen Wir verwenden kein JavaScript Für Transparenz in der Zivilgesellschaft