Wie Bankräuber sich vor der Überwachung mit KI tarnen können

Wie Bankräuber sich vor der Überwachung mit KI tarnen können

Wissenschaftler der Universität Tübingen haben in diesem Jahre herausgefunden, dass künstliche neuronale Netze (KNN) Objekte eher an ihren Texturen erkennen, das heißt an der Oberflächenbeschaffenheit dieser Objekte. Menschen eher an Formen der Objekte. Unseren Vorfahren musste nun mal nur ein schneller Blick ins Dunkle reichen, um den Tiger an seinen Umrissen zu erkennen. Wer den Tiger im Dunkeln nur an seinem gestreiften Fell erkennen konnte, wurde gefressen.

Dass KNN sich nicht an Gestalten orientieren, weist auch Wege, wie man sie austrickst: Vor kurzem haben Forscher an der Universität Leuven entdeckt, womit man künstliche neuronale Netze, die in der Überwachung eingesetzt werden, in die Irre führen kann: Eine Person wird von dem Überwachungsnetz nicht als Person erkannt, wenn sie am Körper ein bestimmtes farbiges Bild trägt.

So kann man für die Erkennung von Bankräubern bald wieder Menschen statt KI-Überwachungskameras einsetzen. Wenn eine Person in die Bank kommt, die am Bauch ein farbiges Bild trägt, um das KI-Überwachungssystem zu überlisten, ist es ein Räuber. 🙂

Mit einem T-Shirt gegen Überwachung

Mit einem T-Shirt gegen Überwachung

Der beste Datenschutz heutzutage ist wohl, so viele Lügen über sich zu verbreiten, dass darin niemand die Wahrheit fischen kann. Deswegen müsste man jede Google-Suche mit einigen parallel dazu laufenden Tarnsuchen nach Unsinn begleiten. Ansonsten hat man den fleißigen Datensammlern schon durch das Stöbern im Netz ein lückenloses Persönlichkeitsprofil geliefert: Was man kauft, was man isst, was man liest, welche Krankheiten man hat, welche sexuellen Vorleiben und den ganzen Rest.

Auch wo und wie man sich bewegt, wird gern erfasst. Zum Beispiel bei der automatischen Kennzeichen-Erfassung, und das nicht nur in den USA, sondern auch in Bayern.

Zumindest, was Überwachung angeht, kann man aber künstliche neuronale Netze (KNN) in der Bilderkennung austricksen. Wohl orientieren sich KNN bei ihrer Erkennung an den Texturen, also an der Oberflächenbeschaffenheit der Objekte. Nicht an ihren Formen wie wir Menschen.

Gern verwechseln KNN dreidimensionale mit zweidimensionalen Bildern. So wurde eine berühmte chinesische Managerin auf einem öffentlichen Bildschirm angeprangert, weil sie verbotenerweise über eine Straße gegangen sei. Dabei hat sie die Kamera auf dem Plakat eines vorbeifahrenden Busses gefilmt. Die Statue des berühmten tschechischen Marathonläufers und Olympiasiegers Emil Zatopek könnte ein Bilderkennungsprogreamm somit folgend beschreiben: „Ein Mann, der auf der Straße läuft.“

Auf der diesjährigen DefCon (August 2019), der Cybersicherheitskonferenz in Las Vegas, hat die Designerin und Hackerin Kate Rose ihre „Adversial Fashion Line“ vorgestellt: Mit verschiedenen Autokennzeichen bedruckte Kleidungsstücke.

Selbstverständlich würden gut trainierte neuronale Netze auf diesen Trick nicht hereinfallen. Um die gängigen Modelle für die Autokennzeichen-Überwachung zu verwirren, dürften sie aber reichen. Momentan. Die künstlichen neuronalen Netze werden immer besser. Bald wird es sehr schwierig sein, sie auszutricksen. Deswegen sollten wir schauen, dass KNN nicht dazu missbraucht werden, uns zu überwachen.

Foto: Lianhao Qu bei Unsplash

Die KI-Gesichtserkennung ist immer noch nicht neutral

Die KI-Gesichtserkennung ist immer noch nicht neutral

Obwohl KI-Gesichtserkennungs-Programme bereits massiv von der Polizei in den USA, in Australien und in Frankreich eingesetzt werden, können diese Programme Menschen mit dunkler Hautfarbe viel schlechter erkennen als Weiße. Außerdem Frauen schlechter als Männer. Die meisten Fehler passieren also bei dunkelhäutigen Frauen.

Die naheliegende Erklärung dafür ist: Die Foto-Datenbanken für das Training der Gesichtserkennungsprogramme stammen aus dem Internet und enthalten bis zu 80 % Gesichter von Weißen.

Die generell schlechtere Gesichtserkennung von Frauen erklärt man mit der Verwendung von Makup. Ich glaube aber, Frauen haben eine viele reichere Gefühlswelt als Männer und zeigen das dementsprechend in viel mehr Gesichtsausdrücken als Männer. Das bringt die Maschinen durcheinander. 🙂 Nicht ihr Makeup macht Frauen so schwer fassbar, sondern ihre Gefühle.

Wohl werden dunkelhäutige Menschen aber auch schlechter von den KI-Programmen erkannt, da die Digitalfotografie eher auf die Aufnahme von weißen Gesichtern hin entwickelt wurde. Also könnte das auch ein technisches Problem sein. Sicher spielen beide Ursachen eine Rolle: zu wenige Fotos von dunkelhäutigen Menschen in den Datenbanken und eine schlechtere Qualität ihrer Fotos.

Der Gesichtserkennungsexperte Patrick Grother stellte eine etwas politisch unkorrekte Hypothese auf: dunkelhäutige Menschen seien statistisch gesehen schlechter unterscheidbar als Weiße. Das wäre eine phänotypische Erklärung, für die es jedoch keine wissenschaftliche Begründung gibt. Auf jeden Fall kann ich dafür als ursprünglich theoretischer Molekularbiologe keinen molekularbiologischen Grund erkennen.

Photo by Mehrdad Haghighi on Unsplash.

Augenschmaus dank künstlicher Intelligenz

Augenschmaus dank künstlicher Intelligenz

Israelische Wissenschaftler haben ein künstliches neuronales Netz trainiert, das aus einem Kochrezept das Bild der entsprechenden Speise kreieren kann. Diese virtuellen Speisen sehen recht lecker aus. Die Idee bekam einer der Forscher, Ori Bar El, als seine Oma sich an das Rezept ihrer „legendären Fischfilets in Tomatensoße“ nicht mehr erinnern konnte. Hier gibt es ein ausführliches Zitat dazu.

Wohl hatte die Familie ein Bild der Speise, und so überlegte Ori Bar El, ob man einer Maschine beibringen könne, die Bestandteile einer Speise aus ihrem Bild zu folgern. Wegen vieler löslicher Zutaten wie Salz un Butter ist das unmöglich. Doch könne man nicht umgekehrt aus den Bestandteilen der Speise, ihrem Rezept also, das Bild der Speise schöpfen? Erzeugende gegnerische Netze (GANs – generative adversarial networks) konnten das.

Das Bild habe ich es dem arXiv-Artikel „GILT: Generating Images“ von Ori Bar El, Ori Licht & Netanel Yosephian übernommen.

GANs sind übrigens auch für Deep Fakes verantwortlich (gefälschte Fotos und Videos). Sie setzen sich aus einem Erzeuger-Netz, das bei seinem Training Bilder erzeugt und diese von seinem gegnerischen Netzwerk bewerten lässt, und das so lange, bis der Erzeuger gute Bilder liefert. Dann sind GANs fertig trainiert. Jetzt können sie auch Bilder von nicht gekochten Speisen liefern.

Bei tnw – thenextweb schreibt man dazu: „Diese talentierten (israelischen Forscher) haben vielleicht die verfluchten Feinschmecker
auf Instagram in eine Welt gestürzt, in der wir uns nicht ganz sicher sein können, ob das echt ist, was uns das Wasser im Mund zusammenlaufen lässt, oder ob’s die Vorstellung eines Roboters von einem Souffle ist.“

So sollten Speisebilder-Fetischisten wohl verinnerlichen:

Traue keinem Bild einer Speise, die du nicht selbst gekocht hast.

Mir fällt dabei wieder mal der Spruch eines japanischen KI-Forschers ein, dessen Namen ich mir nicht merken konnte:

Die Grenzen der Anwendbarkeit von künstlichen neuronalen Netzen liegen nur in unserer Vorstellungskraft.

Guten Appetit!

Ethik wie in China?

Ethik wie in China?

Seinen neuen Blogtext bei Medium betitelte der Tech Futurist Michael K. Spencer mit Chinese Facial Recognition Will Take over the World in 2019. Keine übertriebene Behauptung finde ich. Über die Vormacht China in der Anwendung der künstlichen neuronalen Netze habe ich mir schon öfter Gedanken gemacht.

Chinesische StartUps SenseTime und Face++ sind weltführend in der Gesichtserkennung mit Künstliche-Intelligenz-Programmen (künstlichen neuronalen Netzen). Das chinesische Sky Net kann in China auf 170 Millionen Kameras zugreifen, in 3 Sekunden kann es jedes Gesicht identifizieren, und das viel besser, als es Gesichtserkennungs-Programme von Google und Facebook bewerkstelligen können. Bis 2020 werden in China 400 Millionen Kameras installiert sein.

Die chinesischen Apps SenseTime und Face++ scheinen sehr effizient zu arbeiten. Sie sind für „rassistische“ Bias nicht so anfällig, wie das Gesichtserkennungs-System von Google zum Beispiel, das mal ein schwarzes Pärchen als Gorillas bezeichnete. Deswegen fangen jetzt auch Organisationen und Firmen im Westen die chinesischen Überwachungssysteme zu installieren, zum Beispiel die New Yorker Polizei.

Zwingt jetzt China dem westlichen Turbo-Kapitalismus ihre Ethik auf?
Und ihre Art des Datenschutzes? Durch ihre führend Rolle in der Anwendung von künstlicher Intelligenz? So wie Facebook und andere US-Plattformen uns in Europa die amerikanische Prüderie aufzwingen? Hollywood den Kitsch und McDonalds diese unsäglich weichen Brötchen ohne Geschmack?

Wie schon in einem anderen Blog-Beitrag hier erwähnt: Als ich einmal einen chinesischen KI-Forscher fragte, warum denn China langsam weltführend in künstlicher Intelligenz wird, hat er gelächelt und gesagt: „Wir haben die Daten!“

Für das Training von künstlichen neronalen Netzen (KNN) braucht man nun mal große Datensätze – die gibt es in China. Je weniger Datenschutz, umso größer die Datensätze, die der Regierung und den Firmen zur Verfügung stehen.

Uns bleibt nichts anderes übrig, als möglichst schnell die Erforschung und Entwicklung der künstlichen neuronalen Netze voranzutreiben und uns Gedanken zu machen, damit diese Systeme nicht missbraucht werden. Sonst wird diese Entwicklung von autoritären Systemen vorangetrieben. Wie absurd es auch ist, sogar Putin warnt davor: Wer bei künstlicher Intelligenz in Führung gehe, werde die Welt beherrschen.

KNN könnten uns helfen, die Erde besser zu machen, unsere Krankheiten zu besiegen, das Klima zu retten. Wenn wir aber wegschauen, wenn wir künstliche Intelligenz Menschen überlassen, die nur Geld und Macht häufen wollen, oder autoritären Regimes, können wir bald auf einer voll überwachten Erde hocken, von einem Überwachungssystem kontrolliert, von dem Orwell nicht einmal alpträumen konnte. Dann hilft das Wegschauen nicht mehr. Die Kameras sind überall – an Maschinen angeschlossen, die Dich auch erkennen, wenn du deinen Kopf in einen Kürbis steckst – an deinem Körper, an deinem Gang, an der Bewegung deiner Arme. Die KI-Programme können das.

Vielleicht würde dieses allgegenwärtige System die Alltagskriminalität abschaffen, doch auch das Tor breit öffnen für einen nie dagewesenen Machtmissbrauch. Wollen wir das?

Ich habe keine Angst vor HAL 9000 oder Terminator. Künstliche neuronale Netze können uns nicht versklaven. Nur Menschen können das – mit Hilfe der künstlichen neuronalen Netze.

Schneller als Realität

Schneller als Realität

Im Frühjahr hat eine Lektorin ein Kinderbuchprojekt von mir abgelehnt, in dem künstliche Intelligenz (KI) thematisiert wurde. KI sei kein Thema, meinte sie. Wirklich! In diesem Hype-Jahr der KI!

Indem KI jetzt auch das Allerheiligste des Feuilletons in Frage stellt – die Kunst -, wie man in diesem SZ-Artikel lesen kann, ist KI, hoffentlich, auch bei den Verlagen angekommen: Bei Christies ist ein Bild für 400.000 Euro verkauft worden, das von einem künstlichen neuronalen Netz gemalt wurde.

Sicher wissen jetzt die Verlage über KI Bescheid! Denn vor ein paar Tagen hat die SZ auch einen Artikel über ein StartUp aus Hamburg gebracht, das der Verlagswelt einen Bestseller-Spürhund anbietet – ein künstliches neuronales Netz, das für schlappe 7.500 Euro aus den Unmengen an Manuskripten, die Verlage eingesandt bekommen, Bestseller fischt.

Übrigens hatte ich im Sommer 2018 die gleiche Idee: ein KNN mit Bestsellern zu trainieren, damit es dann Besteller wie ein Jagdhund den Fuchs riechen kann. Habe über die Idee auch ein paar Freunden geschrieben, sie dann aber wieder fallen lassen, da ich kein StartUp gründen will.

Für Bücher kannst du Ideen zu künstlicher Intelligenz und künstlichen neuronalen Netzen nicht mehr verwenden. Denn bis es zu der Veröffentlichung des Buches kommt, hatte unsere schöne neue KI-Wirklichkeit diese Idee längst überholt.

Ein japanischer KI-Forscher sagte: Die Möglichkeiten der Anwendung der tief lernenden neuronalen Netzen sind nur durch unsere Vorstellungskraft begrenzt. Recht hatte er!