Auch Täter setzen häufiger künstliche Intelligenz ein
Bereits zugenommen hat künstlich erstellte Kinderpornografie. Auch bei Hetze im Internet und bei Betrug erwartet die Polizei einen Anstieg.
Von Kristin Doberer
Rems-Murr. Während die Polizei im Land sich mittlerweile von künstlicher Intelligenz (KI) bei Ermittlungen unterstützen lässt, beschäftigen sich auch ihre Gegenspieler mit KI-gesteuerten Programmen. „KI kommt auch auf Täterseite zum Einsatz“, erklärt Sebastian Bossaller von der Ermittlungsgruppe Kinderpornografie. Immer häufiger werden zum Beispiel kinderpornografische Inhalte mithilfe von KI-Programmen erstellt. Bei den gängigen Programmen für die künstliche Bilderstellung sei es zwar nicht zulässig und eigentlich auch gar nicht möglich, kinderpornografisches Material zu erstellen, doch Straftäter haben bereits Umwege gefunden. „Im Deep Web gibt es einen Markt für Hacks, um diese Einschränkungen zu umgehen“, erklärt Marc Bauer, dessen Abteilung sich mit Cybercrime beschäftigt. Auch könne man sich mithilfe von sogenannten Virtual Private Networks (VPN) auf ausländischen Servern einwählen. So befindet man sich digital in Ländern, in denen diese Bilderstellung zum Beispiel keine Straftat ist.
Für die Beamten ist diese Entwicklung eine Herausforderung. Denn zwar sei auch das künstliche Herstellen von Kinderpornografie strafbar, allerdings gebe es eben doch einen Unterschied. „Hinter den echten kinderpornografischen Inhalten stecken Missbrauchsfälle“, sagt Bossaller. Im Zweifelsfall gehe man deshalb immer davon aus, dass es sich um reale Darstellungen handelt. Gleichzeitig sei zum Teil aber durchaus eine Unterscheidung möglich. „Es gibt gewisse Marker, an denen man erkennen kann, wenn ein Bild künstlich erstellt wurde, wenn man genau hinschaut“, sagt Marc Bauer. So könne man manchmal die Prompts, also die Vorgaben an das Programm, nachvollziehen. Auch gebe es mittlerweile Programme, die künstlich erstellte von echten Bildern unterscheiden können. Auch die Polizei arbeite gerade daran, so ein Programm zu entwickeln. „Bestimmte Muster und Marker kann man der künstlichen Intelligenz beibringen. Dann tritt eine KI gegen eine andere KI an“, sagt Marc Bauer. Noch sei das bei der Polizei im Kreis aber nicht einsetzbar.
Betrugsmails mit persönlicher Anrede
Die Generierung von Bildmaterial ist aber lange nicht die einzige Entwicklung auf der Täterseite. Hetze, Stimmungsmache und die Verbreitung politischer Propaganda in sozialen Medien könnten zunehmen. Und besonders bei Betrug rechnet Bauer mit maßgeblichen Veränderungen durch künstliche Intelligenz. „Es wird mehr Betrugsfälle geben und sie werden wesentlich personalisierter werden“, so der Beamte. Kommen die Verbrecher nämlich, zum Beispiel über vorherige Datenleaks, an Informationen über Privatpersonen oder Unternehmen, werden Betrugs- oder Phishingmails mit persönlicher Anrede und weniger Rechtschreib- und Grammatikfehlern versendet werden. Auch Schockanrufe oder Anrufe von falschen Polizeibeamten werden besser werden, zum Beispiel durch das künstliche Imitieren von Stimmen. Dadurch könne es gut sein, dass Täter in Zukunft gar keine Callcenter mehr benötigen, weil Anrufe von der KI übernommen werden. „Wir rechnen mit einer Zunahme der Quantität, aber auch der Qualität bei Betrugsfällen“, sagt Bauer.
Um sich gegen solche Betrugsmaschen zu wehren, raten die Beamten, noch mehr auf gewisse Dinge zu achten: Bei Anrufen der Polizei stehe zum Beispiel nie die 110 auf dem Display, sondern immer die Nummer der jeweiligen Polizeistation, erklärt Bauer. Und bei E-Mails müsse man genau auf den Absender schauen, Links von unbekannten E-Mail-Adressen sollte man nicht anklicken. „Wichtig ist es, die Kommunikation zu unterbrechen“, rät Bauer. Dann könne man sich auf einem zweiten Weg rückversichern, indem man selbst einen Anruf tätigt. Bei der Bank, bei angeblichen Kollegen, Enkeln oder Polizisten sollte man sich unter einer bekannten Nummer – zum Beispiel der offiziellen Nummer der eigenen Bankfiliale oder der örtlichen Polizeistation – rückversichern.
„Wir wissen gut um die Gefahren, wenn KI auf der anderen Seite eingesetzt wird, und um die rasche Entwicklung. Wir stellen jetzt schon die Weichen, um den Phänomenen beizukommen“, sagt Sebastian Bossaller. „Aber andererseits wissen wir auch um den Nutzen von KI.“ Es sei wichtig, dass sich die Polizei dieser nicht verwehre, sondern mit den Entwicklungen Schritt halte.