|
|
|
Großbritannien will flächedeckend GesichtserkennungIn Großbritannien wird mal wieder auf Gesichtserkennung gesetzt. Im Land mit den meisten Videokameras versucht man schon seit Jahren zusätzlich auch gleich die beobachteten Menschen zu identifizieren. Doch - wie wir schon so oft gesagt haben - Gesichtserkennung erzeugt massenhaft False Positives, d.h. es werden Menschen falsch erkannt. Diese haben dann das Problem ihre Unschuld beweisen zu müssen, da sie ja fälschlicherweise als verdächtig erkannt wurden. Grund dafür ist immer noch das Problem, über das The Guardian berichtet: Die Software der nationalen Polizeidatenbank identifiziert schwarze und asiatische Menschen deutlich häufiger fälschlicherweise als Kriminelle als weiße Personen. t3n.de schreibt über die Einzelheiten: "Während weiße Subjekte nur in 0,04 Prozent der Fälle fälschlicherweise erkannt wurden, lag die Fehlerrate bei asiatischen Personen bei 4,0 Prozent. Bei schwarzen Personen stieg dieser Wert sogar auf 5,5 Prozent an. Noch drastischer fällt der Unterschied aus, wenn man die Ergebnisse nach Geschlecht differenziert. Schwarze Männer waren mit einer Fehlerrate von 0,4 Prozent betroffen. Bei schwarzen Frauen hingegen schoss die Rate der falschen Treffer auf 9,9 Prozent." Von diesen Ergebnissen unbeeindruckt hatte kurz vor Bekanntwerden der Zahlen Polizeiministerin Sarah Jones die Technologie noch in den höchsten Tönen gelobt. Man kann nur feststellen, dass wieder eine Technologie ohne ausreichende Schutzmaßnahmen in den operativen Polizeidienst eingeführt wurde. Nun will das Innenministerium angeblich "einen neuen Algorithmus beschafft und getestet" haben. Mehr dazu bei https://t3n.de/news/gesichtserkennung-uk-home-office-bias-fehler-1720372/ Category[21]: Unsere Themen in der Presse Short-Link to this page: a-fsa.de/e/3LQ Link to this page: https://www.a-fsa.de/de/articles/9370-20251208-viele-false-positives.html Link with Tor: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/9370-20251208-viele-false-positives.html Tags: #Videoüberwachung #Gesichtserkennung #Weiße #Farbige #Frauen #Lauschangriff #Großbritannien #Rassismus #Rasterfahndung #Datenbanken #ZensFunkzellenabfragen #Kennzeichen-Scanning #Anonymisierung #Verschlüsselung #Freizügigkeit #Unschuldsvermutung #Verhaltensänderung #Verbraucherdatenschutz Created: 2025-12-08 18:11:00 Leave a Comment |