Weblog

Selbstlernende KI – Die gute und die schlechte Nachricht!

Seien wir ehrlich, erst wenn ein Algorithmus selbstständig lernt, statt alles vorgeben zu bekommen, kann man ihn als intelligent bezeichnen. Doch auch dann lernt die KI aus den Daten von Menschen. Weshalb die gute Nachricht lautet, KI ist aktuell nicht bedrohlich intelligent, die schlechte ist, sie ist eigentlich genauso dumm wie der Mensch.

Als Microsoft seinen selbstlernenden Chatbot losschickte, war man schnell gezwungen ihn wieder einzufangen. Denn er landete offensichtlich in schlechter Gesellschaft, passt sich an diese an und keine rassistische oder sexistische Äußerung war dem Bot mehr fremd. Der zweite Versuch lieferte nicht unbedingt bessere PR, denn diesmal begann der Chatbot Windows 10 blöd und Linux ganz toll zu finden.

Aber in beiden Fällen war nicht unbedingt der Algorithmus Schuld, sondern eher das Material aus dem er zu lernen begann. Und genau das ist die Krux an einem selbständig lernenden Programm, es lernt vom zusehen und auswerten jener Daten, die man ihm zur Verfügung stellt. Und das sagt mitunter mehr über den Menschen aus, als über die künstliche Intelligenz.

An der US-Universität startete Aylin Caliskan einen interessanten Versuch. Man trainierte eine künstliche Intelligenz mit einem Wortschatz aus 840 Milliarden aus dem Internet gezogenen englischen Worten. Ziel war es die KI so zu trainieren, dass sie am Ende sagen konnte, welche Begriffe semantisch zusammengehören. Beim Begriff „Blumen“ funktionierte das noch recht gut, hier ordnete die KI positive Begriffe zu. Das tat sich auch bei westlichen Vornamen, afro-amerikanische Vornamen dagegen wurden negativen Begriff zugeordnet. Die Vornamen von Männern brachte die KI mit Karriere und Mathematik in Zusammenhang, weibliche Vornamen eher mit Familie. Mit anderen Worten, die KI übernahm menschliche Vorurteile. In diesem Fall mag das noch eine harmlose akademische Spielerei gewesen sein, dummerweise gibt es aber etwa eine amerikanische Software die bei Bewährungsfragen von Strafgefangenen deren Rückfallrisiko bewerten soll. Und wenn der Strafgefangene schwarz war … wir wissen was ich meine.

Es scheint fast so, als wäre der größte augenblickliche Erfolg einer selbstlernenden Künstlichen Intelligenz, uns den Alltagsrassismus und die Vorurteile der Gesellschaft deutlich vor Augen zu führen.

Was also tun? Fakten einfach streichen, die etwa auf eine ethnische Herkunft hinweisen? Könnte man machen, hat aber zwei entscheidende Nachteile: 1. Es ist auch ein menschliches Werturteil, das der Algorithmus erlernt. 2. Spielt die ethnische Herkunft durchaus auch eine Rolle. Eine Medikamentenempfehlung etwa sollte die ethnische Herkunft kennen, denn bei einigen Wirkstoffen macht das durchaus einen Unterschied.

Wichtiger wäre es wohl den genauen Entscheidungsweg der KI nachvollziehen zu können. Das allerdings ist gar nicht so einfach, denn auch wenn wir wissen das der Algorithmus aus den bereitgestellten Daten lernt, wie er das genau tut, dass weiß keiner so wirklich. Und nicht immer steht eine Statistik bereit, bei der ein Mensch stutzig werden könnte. Den Entscheidungsweg nachvollziehen zu können ist auch deshalb wichtig, weil eine KI nicht immer die richtigen Schlüsse zieht.

Ein Beispiel aus der menschlichen Wissenschaft. Jahrhunderte sahen die Menschen in den Himmel und schlossen aus ihren Beobachtungen, dass sich die Sonne und alle Planeten um die Erde drehten. Entgegen dem üblichen Vorurteil war dieses Weltbild keine kirchliche Lehrmeinung, sondern eine durch Beobachtung (scheinbar) belegte wissenschaftliche Tatsache. Heute wissen wir das dieses Weltbild Quatsch ist, da kann man es noch so lange mit eigenen Augen sehen.

Über solche Fehler sind auch Algorithmen nicht erhaben, wie eine Untersuchung des Fraunhofer Instituts etwas nahelegt. Dort wollte man genauer wissen wie eine Bilderkennungssoftware lernt den Inhalt eines Bildes anhand von Beispielbildern zu erkennen. Der Algorithmus war recht gut darin eine Eisenbahn zu erkennen. Als man mittels einer Heatmap aber herausbekam, welche Aspekte der Algorithmus ganz besonders als Kriterium heranzog, war man überrascht. Es war eben nicht die Eisenbahn, sondern die Schienen, die dafür sorgten das eine Bild mit einer Eisenbahn als Bild mit einer Eisenbahn klassifiziert wurde. Hätte man aber ein Bild mit einem Auto reingeschmuggelt, das auf Schienen steht – der Algorithmus hätte wohl eine Eisenbahn erkannt. Mitunter hätten auch einfach schon die Schienen für eine entsprechende Einordnung genügt.

 

Teilen macht Freude.