![]()
|
![]() |
![]() ![]() ![]() |
Wie steht es mit Tat und Tatvorsatz?![]() Auf der unten verlinkten Webseite der Legal Tribune Online macht sich Dr. Philip N. Kroner Gedanken, wo die Grenze zur Strafbarkeit bei der Formulierung von Prompts von LLMs, Large Language Models, ist. Zu den einschlägigen Gesetzen, wie z.B. das Herstellen bestimmter Inhalte (etwa Kinderpornografie, § 184b Strafgesetzbuch (StGB)) oder Anleitungen zum Bombenbau in Vorbereitung von schweren staatsgefährdenden Gewalttaten (§ 89a StGB) muss man nur dem Täter die Tat nachweisen, um seine Verurteilung zu erreichen. Wie ist es rechtlich jedoch, wenn man "nur" eine KI überredet, die Tat zu begehen? Prompt InjectionDie Betreiber der LLMs kennen das Problem und sollten dafür gesorgt haben, dass es keinem Nutzer gelingt durch ausgeklügelte Formulierungen das System für die eigenen Zwecke zu manipulieren. Dieser Optimismus hat sich spätestens erledigt, nachdem es in einigen Fällen durch Prompts gelungen war, die KI in den DAN-Modus (Do anything now) zu versetzen. Das könnte die Grenze zur Strafbarkeit sein, aber nur, wenn man demjenigen nachweist, dass er dies mit Vorsatz getan hat. Im verlinkten Artikel wird die "Tat" so beschrieben: Der Angreifer "knackt" kein Schloss, sondern er redet gewissermaßen auf den "Türsteher" ein, bis dieser ihn "hereinlässt". Der "Täter" macht ja nichts, er fragt ja nurAußerdem muss man bei der "Tat" nicht unbedingt an die oben genannten schweren Straftaten denken. Da reicht z.B. schon die heute ungewollt erhaltene Mail "ChatGPT Trader bringt Tausende ein". Hinter dem enthaltenen Link lauern entweder Gangster oder wirklich eine KI, die alles tun werden, um den Nutzern ihr Geld aus der Tasche zu ziehen. Es ist auch möglich mit LLMs politische oder wirtschaftliche Manipulationsversuche auf die Menschen los zu lassen. Ob so etwas erfolgreich ist oder sein kann, sollte man nicht dem Zufall überlassen. Wir stellen die Frage nur am Rande, ob nicht auch die jetzigen Besitzer der großen KI-Systeme solche (bösen) Absichten haben können? Diese können jederzeit die Reaktion der KI auf Fragen (Prompts) voreinstellen und ihnen unliebsame Antworten über die Realität aussieben. Wer untersucht deren mögliche Manipulationsversuche gegenüber der Menschheit? Auch im verlinkten Artikel wird auf die absolute Grauzone bei entsprechenden Wirtschaftsstraftaten hingewiesen. Ermittlungsverfahren würden regelmäßig im Prüfvorgang enden, wenn nicht die Datenschutzstrafnorm des § 42 BDSG oder die Verletzung von Geschäftsgeheimnissen nach § 23 GeschGehG offensichtlich und nachweisbar wären. Wieder landen wir am Ende bei der Erkenntnis aus unserer KI-Sendereihe (Teil 1, Teil 2, Teil 3): Die KI Systeme haben riesige Mengen an Wissen aber sie kennen keine Wahrheit oder Realität außerhalb ihrer trainierten Informationen. Sie können mit ihren Aussagen die Welt kaum besser aber mit hoher Wahrscheinlichkeit dümmer machen. Mehr dazu bei https://www.lto.de/recht/hintergruende/h/large-language-models-prompt-injections-strafrecht-hacking Category[21]: Unsere Themen in der Presse Short-Link to this page: a-fsa.de/e/3Kc Link to this page: https://www.a-fsa.de/de/articles/9276-20250910-ist-ueberreden-gleich-hacken.html Link with Tor: http://a6pdp5vmmw4zm5tifrc3qo2pyz7mvnk4zzimpesnckvzinubzmioddad.onion/de/articles/9276-20250910-ist-ueberreden-gleich-hacken.html Tags: #Strafbarkeit #Prompts #DANModus #AI #KI #Tatvorsatz #Ausforschung #Werbung #Manipulation #Verbraucherdatenschutz #BullshitIndex #Verhaltensänderung #Realität #Suchtverhalten Created: 2025-09-10 08:06:42 Hits: 77 Leave a Comment |