Wie Bankräuber sich vor der Überwachung mit KI tarnen können

Wie Bankräuber sich vor der Überwachung mit KI tarnen können

Wissenschaftler der Universität Tübingen haben in diesem Jahre herausgefunden, dass künstliche neuronale Netze (KNN) Objekte eher an ihren Texturen erkennen, das heißt an der Oberflächenbeschaffenheit dieser Objekte. Menschen eher an Formen der Objekte. Unseren Vorfahren musste nun mal nur ein schneller Blick ins Dunkle reichen, um den Tiger an seinen Umrissen zu erkennen. Wer den Tiger im Dunkeln nur an seinem gestreiften Fell erkennen konnte, wurde gefressen.

Dass KNN sich nicht an Gestalten orientieren, weist auch Wege, wie man sie austrickst: Vor kurzem haben Forscher an der Universität Leuven entdeckt, womit man künstliche neuronale Netze, die in der Überwachung eingesetzt werden, in die Irre führen kann: Eine Person wird von dem Überwachungsnetz nicht als Person erkannt, wenn sie am Körper ein bestimmtes farbiges Bild trägt.

So kann man für die Erkennung von Bankräubern bald wieder Menschen statt KI-Überwachungskameras einsetzen. Wenn eine Person in die Bank kommt, die am Bauch ein farbiges Bild trägt, um das KI-Überwachungssystem zu überlisten, ist es ein Räuber. 🙂

Mit einem T-Shirt gegen Überwachung

Mit einem T-Shirt gegen Überwachung

Der beste Datenschutz heutzutage ist wohl, so viele Lügen über sich zu verbreiten, dass darin niemand die Wahrheit fischen kann. Deswegen müsste man jede Google-Suche mit einigen parallel dazu laufenden Tarnsuchen nach Unsinn begleiten. Ansonsten hat man den fleißigen Datensammlern schon durch das Stöbern im Netz ein lückenloses Persönlichkeitsprofil geliefert: Was man kauft, was man isst, was man liest, welche Krankheiten man hat, welche sexuellen Vorleiben und den ganzen Rest.

Auch wo und wie man sich bewegt, wird gern erfasst. Zum Beispiel bei der automatischen Kennzeichen-Erfassung, und das nicht nur in den USA, sondern auch in Bayern.

Zumindest, was Überwachung angeht, kann man aber künstliche neuronale Netze (KNN) in der Bilderkennung austricksen. Wohl orientieren sich KNN bei ihrer Erkennung an den Texturen, also an der Oberflächenbeschaffenheit der Objekte. Nicht an ihren Formen wie wir Menschen.

Gern verwechseln KNN dreidimensionale mit zweidimensionalen Bildern. So wurde eine berühmte chinesische Managerin auf einem öffentlichen Bildschirm angeprangert, weil sie verbotenerweise über eine Straße gegangen sei. Dabei hat sie die Kamera auf dem Plakat eines vorbeifahrenden Busses gefilmt. Die Statue des berühmten tschechischen Marathonläufers und Olympiasiegers Emil Zatopek könnte ein Bilderkennungsprogreamm somit folgend beschreiben: „Ein Mann, der auf der Straße läuft.“

Auf der diesjährigen DefCon (August 2019), der Cybersicherheitskonferenz in Las Vegas, hat die Designerin und Hackerin Kate Rose ihre „Adversial Fashion Line“ vorgestellt: Mit verschiedenen Autokennzeichen bedruckte Kleidungsstücke.

Selbstverständlich würden gut trainierte neuronale Netze auf diesen Trick nicht hereinfallen. Um die gängigen Modelle für die Autokennzeichen-Überwachung zu verwirren, dürften sie aber reichen. Momentan. Die künstlichen neuronalen Netze werden immer besser. Bald wird es sehr schwierig sein, sie auszutricksen. Deswegen sollten wir schauen, dass KNN nicht dazu missbraucht werden, uns zu überwachen.

Foto: Lianhao Qu bei Unsplash

Die KI-Gesichtserkennung ist immer noch nicht neutral

Die KI-Gesichtserkennung ist immer noch nicht neutral

Obwohl KI-Gesichtserkennungs-Programme bereits massiv von der Polizei in den USA, in Australien und in Frankreich eingesetzt werden, können diese Programme Menschen mit dunkler Hautfarbe viel schlechter erkennen als Weiße. Außerdem Frauen schlechter als Männer. Die meisten Fehler passieren also bei dunkelhäutigen Frauen.

Die naheliegende Erklärung dafür ist: Die Foto-Datenbanken für das Training der Gesichtserkennungsprogramme stammen aus dem Internet und enthalten bis zu 80 % Gesichter von Weißen.

Die generell schlechtere Gesichtserkennung von Frauen erklärt man mit der Verwendung von Makup. Ich glaube aber, Frauen haben eine viele reichere Gefühlswelt als Männer und zeigen das dementsprechend in viel mehr Gesichtsausdrücken als Männer. Das bringt die Maschinen durcheinander. 🙂 Nicht ihr Makeup macht Frauen so schwer fassbar, sondern ihre Gefühle.

Wohl werden dunkelhäutige Menschen aber auch schlechter von den KI-Programmen erkannt, da die Digitalfotografie eher auf die Aufnahme von weißen Gesichtern hin entwickelt wurde. Also könnte das auch ein technisches Problem sein. Sicher spielen beide Ursachen eine Rolle: zu wenige Fotos von dunkelhäutigen Menschen in den Datenbanken und eine schlechtere Qualität ihrer Fotos.

Der Gesichtserkennungsexperte Patrick Grother stellte eine etwas politisch unkorrekte Hypothese auf: dunkelhäutige Menschen seien statistisch gesehen schlechter unterscheidbar als Weiße. Das wäre eine phänotypische Erklärung, für die es jedoch keine wissenschaftliche Begründung gibt. Auf jeden Fall kann ich dafür als ursprünglich theoretischer Molekularbiologe keinen molekularbiologischen Grund erkennen.

Photo by Mehrdad Haghighi on Unsplash.

Ethik wie in China?

Ethik wie in China?

Seinen neuen Blogtext bei Medium betitelte der Tech Futurist Michael K. Spencer mit Chinese Facial Recognition Will Take over the World in 2019. Keine übertriebene Behauptung finde ich. Über die Vormacht China in der Anwendung der künstlichen neuronalen Netze habe ich mir schon öfter Gedanken gemacht.

Chinesische StartUps SenseTime und Face++ sind weltführend in der Gesichtserkennung mit Künstliche-Intelligenz-Programmen (künstlichen neuronalen Netzen). Das chinesische Sky Net kann in China auf 170 Millionen Kameras zugreifen, in 3 Sekunden kann es jedes Gesicht identifizieren, und das viel besser, als es Gesichtserkennungs-Programme von Google und Facebook bewerkstelligen können. Bis 2020 werden in China 400 Millionen Kameras installiert sein.

Die chinesischen Apps SenseTime und Face++ scheinen sehr effizient zu arbeiten. Sie sind für „rassistische“ Bias nicht so anfällig, wie das Gesichtserkennungs-System von Google zum Beispiel, das mal ein schwarzes Pärchen als Gorillas bezeichnete. Deswegen fangen jetzt auch Organisationen und Firmen im Westen die chinesischen Überwachungssysteme zu installieren, zum Beispiel die New Yorker Polizei.

Zwingt jetzt China dem westlichen Turbo-Kapitalismus ihre Ethik auf?
Und ihre Art des Datenschutzes? Durch ihre führend Rolle in der Anwendung von künstlicher Intelligenz? So wie Facebook und andere US-Plattformen uns in Europa die amerikanische Prüderie aufzwingen? Hollywood den Kitsch und McDonalds diese unsäglich weichen Brötchen ohne Geschmack?

Wie schon in einem anderen Blog-Beitrag hier erwähnt: Als ich einmal einen chinesischen KI-Forscher fragte, warum denn China langsam weltführend in künstlicher Intelligenz wird, hat er gelächelt und gesagt: „Wir haben die Daten!“

Für das Training von künstlichen neronalen Netzen (KNN) braucht man nun mal große Datensätze – die gibt es in China. Je weniger Datenschutz, umso größer die Datensätze, die der Regierung und den Firmen zur Verfügung stehen.

Uns bleibt nichts anderes übrig, als möglichst schnell die Erforschung und Entwicklung der künstlichen neuronalen Netze voranzutreiben und uns Gedanken zu machen, damit diese Systeme nicht missbraucht werden. Sonst wird diese Entwicklung von autoritären Systemen vorangetrieben. Wie absurd es auch ist, sogar Putin warnt davor: Wer bei künstlicher Intelligenz in Führung gehe, werde die Welt beherrschen.

KNN könnten uns helfen, die Erde besser zu machen, unsere Krankheiten zu besiegen, das Klima zu retten. Wenn wir aber wegschauen, wenn wir künstliche Intelligenz Menschen überlassen, die nur Geld und Macht häufen wollen, oder autoritären Regimes, können wir bald auf einer voll überwachten Erde hocken, von einem Überwachungssystem kontrolliert, von dem Orwell nicht einmal alpträumen konnte. Dann hilft das Wegschauen nicht mehr. Die Kameras sind überall – an Maschinen angeschlossen, die Dich auch erkennen, wenn du deinen Kopf in einen Kürbis steckst – an deinem Körper, an deinem Gang, an der Bewegung deiner Arme. Die KI-Programme können das.

Vielleicht würde dieses allgegenwärtige System die Alltagskriminalität abschaffen, doch auch das Tor breit öffnen für einen nie dagewesenen Machtmissbrauch. Wollen wir das?

Ich habe keine Angst vor HAL 9000 oder Terminator. Künstliche neuronale Netze können uns nicht versklaven. Nur Menschen können das – mit Hilfe der künstlichen neuronalen Netze.