Wie Bankräuber sich vor der Überwachung mit KI tarnen können

Wie Bankräuber sich vor der Überwachung mit KI tarnen können

Wissenschaftler der Universität Tübingen haben in diesem Jahre herausgefunden, dass künstliche neuronale Netze (KNN) Objekte eher an ihren Texturen erkennen, das heißt an der Oberflächenbeschaffenheit dieser Objekte. Menschen eher an Formen der Objekte. Unseren Vorfahren musste nun mal nur ein schneller Blick ins Dunkle reichen, um den Tiger an seinen Umrissen zu erkennen. Wer den Tiger im Dunkeln nur an seinem gestreiften Fell erkennen konnte, wurde gefressen.

Dass KNN sich nicht an Gestalten orientieren, weist auch Wege, wie man sie austrickst: Vor kurzem haben Forscher an der Universität Leuven entdeckt, womit man künstliche neuronale Netze, die in der Überwachung eingesetzt werden, in die Irre führen kann: Eine Person wird von dem Überwachungsnetz nicht als Person erkannt, wenn sie am Körper ein bestimmtes farbiges Bild trägt.

So kann man für die Erkennung von Bankräubern bald wieder Menschen statt KI-Überwachungskameras einsetzen. Wenn eine Person in die Bank kommt, die am Bauch ein farbiges Bild trägt, um das KI-Überwachungssystem zu überlisten, ist es ein Räuber. 🙂

Mit einem T-Shirt gegen Überwachung

Mit einem T-Shirt gegen Überwachung

Der beste Datenschutz heutzutage ist wohl, so viele Lügen über sich zu verbreiten, dass darin niemand die Wahrheit fischen kann. Deswegen müsste man jede Google-Suche mit einigen parallel dazu laufenden Tarnsuchen nach Unsinn begleiten. Ansonsten hat man den fleißigen Datensammlern schon durch das Stöbern im Netz ein lückenloses Persönlichkeitsprofil geliefert: Was man kauft, was man isst, was man liest, welche Krankheiten man hat, welche sexuellen Vorleiben und den ganzen Rest.

Auch wo und wie man sich bewegt, wird gern erfasst. Zum Beispiel bei der automatischen Kennzeichen-Erfassung, und das nicht nur in den USA, sondern auch in Bayern.

Zumindest, was Überwachung angeht, kann man aber künstliche neuronale Netze (KNN) in der Bilderkennung austricksen. Wohl orientieren sich KNN bei ihrer Erkennung an den Texturen, also an der Oberflächenbeschaffenheit der Objekte. Nicht an ihren Formen wie wir Menschen.

Gern verwechseln KNN dreidimensionale mit zweidimensionalen Bildern. So wurde eine berühmte chinesische Managerin auf einem öffentlichen Bildschirm angeprangert, weil sie verbotenerweise über eine Straße gegangen sei. Dabei hat sie die Kamera auf dem Plakat eines vorbeifahrenden Busses gefilmt. Die Statue des berühmten tschechischen Marathonläufers und Olympiasiegers Emil Zatopek könnte ein Bilderkennungsprogreamm somit folgend beschreiben: „Ein Mann, der auf der Straße läuft.“

Auf der diesjährigen DefCon (August 2019), der Cybersicherheitskonferenz in Las Vegas, hat die Designerin und Hackerin Kate Rose ihre „Adversial Fashion Line“ vorgestellt: Mit verschiedenen Autokennzeichen bedruckte Kleidungsstücke.

Selbstverständlich würden gut trainierte neuronale Netze auf diesen Trick nicht hereinfallen. Um die gängigen Modelle für die Autokennzeichen-Überwachung zu verwirren, dürften sie aber reichen. Momentan. Die künstlichen neuronalen Netze werden immer besser. Bald wird es sehr schwierig sein, sie auszutricksen. Deswegen sollten wir schauen, dass KNN nicht dazu missbraucht werden, uns zu überwachen.

Foto: Lianhao Qu bei Unsplash

Optimierung

Optimierung

Ein künstliches neuronales Netz ist eine Ansammlung von zusammenverbundenen Punkten in einem Computerprogramm. Egal wie viel Magie wir einem künstlichen neuronalen Netz (KNN) andichten, lernt ein KNN bei seinem Training seine Aufgabe nach einem mathematischen Optimierungsprozess lösen: dabei werden die Verbindungen zwischen den Punkten des Netzes mit Hilfe von Mathematik schrittweise gestärkt oder geschwächt, bis das Netz eine optimale Antwort auf seine Aufgabe liefert. Wenn man ein Programm mit Hilfe von Mathematik schrittweise anpasst, also optimiert, so dass es „optimal“ seine Aufgabe löst, ist es nun mal keine Magie, sondern ein mathematisches Optimierungsverfahren.
So wie es sich beim Kochen einer Kartoffelsuppe mit Steinpilzen auch um ein Optimierungsverfahren handelt, nur kein mathematisches: dabei tue ich Kartoffel in die Suppe, Steinpilze, etwas Salz, etwas Pfeffer, Majoran, Butter, wieder Pfeffer und Salz … Wenn die Suppe plötzlich zu salzig ist, schmeiße ich noch zwei Kartoffeln hinein. Und dann wieder Pfeffer. Auch Wasser gieße ich nach. Gebe Knoblauch dazu … So lange schütte ich Zutaten in die Suppe und koste die Suppe nach jedem solchen Schritt, bis die Suppe super schmeckt. Mit dem Kosten der Suppe ermittle ich schrittweise ihren Fehler und verbessere diesen. Immer wenn ich nach dem Kosten neue Zutaten hinzufüge, ist das Backpropagation of Error. Wie beim Training eines künstlichen neuronalen Netzes eben.
Die KI-Gesichtserkennung ist immer noch nicht neutral

Die KI-Gesichtserkennung ist immer noch nicht neutral

Obwohl KI-Gesichtserkennungs-Programme bereits massiv von der Polizei in den USA, in Australien und in Frankreich eingesetzt werden, können diese Programme Menschen mit dunkler Hautfarbe viel schlechter erkennen als Weiße. Außerdem Frauen schlechter als Männer. Die meisten Fehler passieren also bei dunkelhäutigen Frauen.

Die naheliegende Erklärung dafür ist: Die Foto-Datenbanken für das Training der Gesichtserkennungsprogramme stammen aus dem Internet und enthalten bis zu 80 % Gesichter von Weißen.

Die generell schlechtere Gesichtserkennung von Frauen erklärt man mit der Verwendung von Makup. Ich glaube aber, Frauen haben eine viele reichere Gefühlswelt als Männer und zeigen das dementsprechend in viel mehr Gesichtsausdrücken als Männer. Das bringt die Maschinen durcheinander. 🙂 Nicht ihr Makeup macht Frauen so schwer fassbar, sondern ihre Gefühle.

Wohl werden dunkelhäutige Menschen aber auch schlechter von den KI-Programmen erkannt, da die Digitalfotografie eher auf die Aufnahme von weißen Gesichtern hin entwickelt wurde. Also könnte das auch ein technisches Problem sein. Sicher spielen beide Ursachen eine Rolle: zu wenige Fotos von dunkelhäutigen Menschen in den Datenbanken und eine schlechtere Qualität ihrer Fotos.

Der Gesichtserkennungsexperte Patrick Grother stellte eine etwas politisch unkorrekte Hypothese auf: dunkelhäutige Menschen seien statistisch gesehen schlechter unterscheidbar als Weiße. Das wäre eine phänotypische Erklärung, für die es jedoch keine wissenschaftliche Begründung gibt. Auf jeden Fall kann ich dafür als ursprünglich theoretischer Molekularbiologe keinen molekularbiologischen Grund erkennen.

Photo by Mehrdad Haghighi on Unsplash.

Augenschmaus dank künstlicher Intelligenz

Augenschmaus dank künstlicher Intelligenz

Israelische Wissenschaftler haben ein künstliches neuronales Netz trainiert, das aus einem Kochrezept das Bild der entsprechenden Speise kreieren kann. Diese virtuellen Speisen sehen recht lecker aus. Die Idee bekam einer der Forscher, Ori Bar El, als seine Oma sich an das Rezept ihrer „legendären Fischfilets in Tomatensoße“ nicht mehr erinnern konnte. Hier gibt es ein ausführliches Zitat dazu.

Wohl hatte die Familie ein Bild der Speise, und so überlegte Ori Bar El, ob man einer Maschine beibringen könne, die Bestandteile einer Speise aus ihrem Bild zu folgern. Wegen vieler löslicher Zutaten wie Salz un Butter ist das unmöglich. Doch könne man nicht umgekehrt aus den Bestandteilen der Speise, ihrem Rezept also, das Bild der Speise schöpfen? Erzeugende gegnerische Netze (GANs – generative adversarial networks) konnten das.

Das Bild habe ich es dem arXiv-Artikel „GILT: Generating Images“ von Ori Bar El, Ori Licht & Netanel Yosephian übernommen.

GANs sind übrigens auch für Deep Fakes verantwortlich (gefälschte Fotos und Videos). Sie setzen sich aus einem Erzeuger-Netz, das bei seinem Training Bilder erzeugt und diese von seinem gegnerischen Netzwerk bewerten lässt, und das so lange, bis der Erzeuger gute Bilder liefert. Dann sind GANs fertig trainiert. Jetzt können sie auch Bilder von nicht gekochten Speisen liefern.

Bei tnw – thenextweb schreibt man dazu: „Diese talentierten (israelischen Forscher) haben vielleicht die verfluchten Feinschmecker
auf Instagram in eine Welt gestürzt, in der wir uns nicht ganz sicher sein können, ob das echt ist, was uns das Wasser im Mund zusammenlaufen lässt, oder ob’s die Vorstellung eines Roboters von einem Souffle ist.“

So sollten Speisebilder-Fetischisten wohl verinnerlichen:

Traue keinem Bild einer Speise, die du nicht selbst gekocht hast.

Mir fällt dabei wieder mal der Spruch eines japanischen KI-Forschers ein, dessen Namen ich mir nicht merken konnte:

Die Grenzen der Anwendbarkeit von künstlichen neuronalen Netzen liegen nur in unserer Vorstellungskraft.

Guten Appetit!