Künstliche Intelligenz ist ein Marketinggag … noch

Wenn das letzte Jahr ein Hypethema hat, dann ist es wahrscheinlich die Künstliche Intelligenz. Doch auch wenn mancher behauptet die KI wäre in der Realität angekommen, so richtig stimmt das nicht wirklich. Im Gegenteil!

Wie jedes Buzzword, das etwas auf sich hält, ist auch der Begriff Künstliche Intelligenz schwammigst formuliert:

„Künstliche Intelligenz (KI, auch Artifizielle Intelligenz (AI bzw. A. I.), englisch artificial intelligence, AI) ist ein Teilgebiet der Informatik, welches sich mit der Automatisierung intelligenten Verhaltens befasst. Der Begriff ist insofern nicht eindeutig abgrenzbar, als es bereits an einer genauen Definition von „Intelligenz“ mangelt.“ – Quelle: de.wikipedia.org

Natürlich ist Künstliche Intelligenz nicht gleich Künstliche Intelligenz. Man unterscheidet sie in der Regel in drei Teilgebiete: die schwache KI, die starke KI und die Künstliche Superintelligenz. Die schwache Variante kennen wir alle, zum Beispiel wenn wir einen Spamfilter im Einsatz haben, für die beiden anderen Varianten ein Beispiel zu finden ist dagegen schon schwerer:

Ja, bekanntlich erklärt sich in einem kurzen Video alles gleich viel besser. Etwas ausführlicher und anschaulicher beschäftigt sich Phil’s Physics mit einem Überblick was Künstliche Intelligenz eigentlich ist:

Es gibt ja das bekannte Bonmot, dass wir es doch erst einmal mit menschlicher Intelligenz versuchen sollten, ehe wir uns mit der künstlichen Variante beschäftigen. Da ist durchaus was dran, oder? Vor allem stellt sich aber die Frage, was ist Intelligenz eigentlich? Wäre es ausreichend ein menschliches Hirn komplett nachzubilden und die neuronalen Verbindungen so einzustellen, dass sie selbstständig lernen würden? Oder gehört zur Intelligenz nicht auch ein Bewusstsein? Ist es nicht ein Ausdruck besonderer Intelligenz, sich zumindest selbst zu erkennen? Die Lebewesen, die auf der Erde dazu in der Lage sind, bilden jedenfalls hier eine recht überschaubare Anzahl. Das sind philosophische Fragen die wir uns bisher hauptsächlich in Abgrenzung zu den Tieren gestellt haben. Allerdings ist es doch recht unwahrscheinlich, dass wir eines Tages auf einem Planet der Affen leben werden, auf dem die Primaten die Kontrolle haben und nicht mehr wir. Eine so weit entwickelte Künstliche Intelligenz wird dagegen von vielen für wahrscheinlich gehalten. Und kluge Köpfe wie Stephen Hawking oder Elon Musk warnen gar vor der Gefahr Künstliche Intelligenz könnte eines Tages die Herrschaft übernehmen.

Nun, 2018 müssen wir uns wohl noch nicht fürchten, dass Skynet endgültig die Kontrolle übernimmt. So schnell die Entwicklung in diesem Bereich auch gehen mag, dieser drohende Schritt wird wohl noch etwas dauern.

Aber wie war das doch mit diesem Go? – Das Computer uns im Schach besiegen ist ein alter Hut. Das IBM’s Watson auch Schachweltmeister in ihre Schranken verweisen kann, war sogar für manchen etwas beruhigendes. Dann ist man wenigstens nicht der einzige, der von einem Computer geschlagen wurde. Im Gegensatz zu Schach ist das in Asien beliebt Spiel Go allerdings unendlich viel komplizierter, allein bei den möglichen Spielzeugen sieht Schach im Gegensatz zu Go geradezu wie ein Spiel für Kleinkinder aus. Mit anderen Worten, während Schach berechenbar erscheint, verlangt Go Intuition. Und als Google einen Algorithmus ins Rennen schickte, der die besten Go-Spieler schlug, war das durchaus eine Überraschung. Allein, ebenso wie Watsons Sieg in Jeopardy handelt es sich hier immer noch um die schwache Variante der Künstlichen Intelligenz.

Und diese basiert im wesentlich auf dem Prinzip des Maschinenlernens, oder man könnte es auch einfache ausdrücken: Try & Error

Maschinen lernen also nach einem einfachen Prinzip. Um abzuspeichern das eine Herdplatte heiß ist, fasst sie die Herdplatte einfach an. Die nächste Variante des Algorithmus weiß dann, dass man das besser nicht mehr tut. Und dennoch ist so manches System im Einsatz, dass mit dem Label „Künstliche Intelligenz“ jede Menge Erwartungen weckt dabei würde es sich um ein, na ja, sagen wir wie es ist, intelligentes System handeln.

Über einen dieser Einsätze berichtete kürzlich die Welt am Sonntag. Nach sechs Jahren Einsatz und 62 Millionen Dollar an Investitionen lies die Universität von Texas einen Vertrag mit IBM auslaufen und setzte Watson vor die Tür. Es war schlicht nicht gelungen ihn in den Ablauf einzubinden, am Ende betrug die Zahl der realen Behandlungsempfehlungen für Krebspatienten sage und schreibe 0 – null. Wie kann das sein, wo doch gerade im Gesundheitsbereich die Anwendungsbeispiele so vielversprechend waren? Symptome rein, Diagnose raus! Was kann da so schwer sein?

Nun, ich fürchte das Hauptproblem liegt wohl darin, dass sich Informatiker sehr wohl über den aktuellen Stand der Künstlichen Intelligenz bewusst sind. Sicher, sie schwärmen auch von dem, was in ein paar Jahren wahrscheinlich möglich ist. Informatiker können das tatsächlich auch einschätzen, sie wissen um die Unterschiede zwischen schwacher und starker KI. Allein, auch wenn das Nerdimage nun wahrlich nicht immer zutrifft, in den wenigsten Fällen wird ein Informatiker an vorderster Front sein Produkt auch verkaufen.

Das ist immer noch die Aufgabe des Marketings, und dort ist man bekanntlich ganz anders gepolt. Rationale Analyse hat noch keinen Verkauf gefördert, es gilt Emotionen zu wecken und ein Mindestmaß an Buzzwords zu verwenden. Und da wären wir wieder beim Begriff „Künstliche Intelligenz“, einem der größten Buzzwords überhaupt. Um ihre Produkte zu verkaufen haben Marketer ganz eigene Erwartungen geschürt, die heute mit der Realität noch wenig gemein haben. Das sieht auch KI-Experte Alexander Linden vom Marktforschungsunternehmen Gartner laut WamS so. Schon manche Broschüren seien schlicht „irreführend“, da werde von „denkenden Maschinen gesprochen“.

„In diesem Markt wird teilweise Scharlatanerie betrieben.“, warnt Wolfgang Hauner, Chief Data Officer beim Rückversicherer Münsch Re. – Quelle: Welt am Sonntag, 24. 12.2017

Dem ist eigentlich nichts mehr hinzuzufügen. Tatsächlich dürfte eine Vielzahl von als Künstliche Intelligenz verkauften Produkten in der Realität schlicht und einfach Tools zur Datenanalyse sein.

Künstliche Intelligenz hat also einen denkbar ungünstigen Verbündeten, wenn es darum geht sich seinen Platz in den Märkten zu erobern. Und so manche vielversprechende Technologie ist auch schon daran gescheitert, dass sie in einem frühen Entwicklungsstadium zum Einsatz kam, während das Marketing schon ein Rund-um-Sorglos-Paket versprochen hatte, das quasi ausgereift ist. In diesem Fall dürfte Stephen Hawking oder Elon Musk allerdings zu früh aufatmen, denn KI ist schlicht zu mächtig, als dass man sie irgendwann neben Google Glass & Co. finden dürfte. Sie wird uns also erhalten bleiben, nach dem Hype kommt immer ein Bogen nach unten, ehe die Etablierungsphase beginnt. In diesem Fall wird es aber eben besonders krass werden.

Roboter oder nicht Roboter, das ist hier die Frage

Neulich auf einer Game Show in Japan … steckt hinter diesem PR Coupe ein realistischer Roboter, oder doch nur eine einen Roboter spielende Frau.

Ende September präsentierten die Macher des PS4-Spiels „Detroit: Become Human“ eine Reihe von Charakteren des Games als Androiden. Obwohl, so sicher ist man sich da am Ende dann doch nicht. Während zahlreiche Medien von einer kleinen Sensation berichten, haben andere dahinter einen geschickten PR Fake erkannt. Der Autor des Blogs Geekologie etwa, auch wenn …

„Besides, if she really was a robot, don’t you think I would have just invested all my money in the sexbot company that made her? I mean, I did just get my allowance, after all.“ – Quelle: Geekologie

Ganz ehrlich, ich würde mich diesem Investmenttipp durchaus anschließen. Und auch wenn wir ziemlich sicher sein können, dass es irgendwann so weit kommt, ob es jetzt schon so weit ist?

Falls es sich jedoch tatsächlich um einen Androiden handelt, scheinen da Ingenieure das Uncanny Valley so ziemlich durchschritten zu haben. Als solches bezeichnete bereits 1970 der japanische Robotikentwickler Masahiro Mori jenen Effekt, wenn ein Roboter dem Menschen so ähnlich wird, das er ihn nur mit Mühe als Roboter erkennt – aber am Ende eben doch. In der Regel schreckt dieser als Akzeptanzlücke übersetzte Zustand Menschen dann meistens ab.

Auf der anderen Seite berichtete erst kürzlich die Frankfurter Allgemeine Zeitung in ihrem Artikel Wo Künstliche Intelligenz zur Religion wird über den riesigen Vorsprung, den China in diesem Bereich gerade richtig ausbaut. Und schon Anfang letzten Jahres machte Jia Jia Schlagzeilen:

Es soll jetzt übrigens jeder mal die Hände heben, warum männliche Robotiker ihre Androiden immer aussehen lassen wie junge hübsche Frauen. 🙂

Selbstlernende KI – Die gute und die schlechte Nachricht!

Seien wir ehrlich, erst wenn ein Algorithmus selbstständig lernt, statt alles vorgeben zu bekommen, kann man ihn als intelligent bezeichnen. Doch auch dann lernt die KI aus den Daten von Menschen. Weshalb die gute Nachricht lautet, KI ist aktuell nicht bedrohlich intelligent, die schlechte ist, sie ist eigentlich genauso dumm wie der Mensch.

Als Microsoft seinen selbstlernenden Chatbot losschickte, war man schnell gezwungen ihn wieder einzufangen. Denn er landete offensichtlich in schlechter Gesellschaft, passt sich an diese an und keine rassistische oder sexistische Äußerung war dem Bot mehr fremd. Der zweite Versuch lieferte nicht unbedingt bessere PR, denn diesmal begann der Chatbot Windows 10 blöd und Linux ganz toll zu finden.

Aber in beiden Fällen war nicht unbedingt der Algorithmus Schuld, sondern eher das Material aus dem er zu lernen begann. Und genau das ist die Krux an einem selbständig lernenden Programm, es lernt vom zusehen und auswerten jener Daten, die man ihm zur Verfügung stellt. Und das sagt mitunter mehr über den Menschen aus, als über die künstliche Intelligenz.

An der US-Universität startete Aylin Caliskan einen interessanten Versuch. Man trainierte eine künstliche Intelligenz mit einem Wortschatz aus 840 Milliarden aus dem Internet gezogenen englischen Worten. Ziel war es die KI so zu trainieren, dass sie am Ende sagen konnte, welche Begriffe semantisch zusammengehören. Beim Begriff „Blumen“ funktionierte das noch recht gut, hier ordnete die KI positive Begriffe zu. Das tat sich auch bei westlichen Vornamen, afro-amerikanische Vornamen dagegen wurden negativen Begriff zugeordnet. Die Vornamen von Männern brachte die KI mit Karriere und Mathematik in Zusammenhang, weibliche Vornamen eher mit Familie. Mit anderen Worten, die KI übernahm menschliche Vorurteile. In diesem Fall mag das noch eine harmlose akademische Spielerei gewesen sein, dummerweise gibt es aber etwa eine amerikanische Software die bei Bewährungsfragen von Strafgefangenen deren Rückfallrisiko bewerten soll. Und wenn der Strafgefangene schwarz war … wir wissen was ich meine.

Es scheint fast so, als wäre der größte augenblickliche Erfolg einer selbstlernenden Künstlichen Intelligenz, uns den Alltagsrassismus und die Vorurteile der Gesellschaft deutlich vor Augen zu führen.

Was also tun? Fakten einfach streichen, die etwa auf eine ethnische Herkunft hinweisen? Könnte man machen, hat aber zwei entscheidende Nachteile: 1. Es ist auch ein menschliches Werturteil, das der Algorithmus erlernt. 2. Spielt die ethnische Herkunft durchaus auch eine Rolle. Eine Medikamentenempfehlung etwa sollte die ethnische Herkunft kennen, denn bei einigen Wirkstoffen macht das durchaus einen Unterschied.

Wichtiger wäre es wohl den genauen Entscheidungsweg der KI nachvollziehen zu können. Das allerdings ist gar nicht so einfach, denn auch wenn wir wissen das der Algorithmus aus den bereitgestellten Daten lernt, wie er das genau tut, dass weiß keiner so wirklich. Und nicht immer steht eine Statistik bereit, bei der ein Mensch stutzig werden könnte. Den Entscheidungsweg nachvollziehen zu können ist auch deshalb wichtig, weil eine KI nicht immer die richtigen Schlüsse zieht.

Ein Beispiel aus der menschlichen Wissenschaft. Jahrhunderte sahen die Menschen in den Himmel und schlossen aus ihren Beobachtungen, dass sich die Sonne und alle Planeten um die Erde drehten. Entgegen dem üblichen Vorurteil war dieses Weltbild keine kirchliche Lehrmeinung, sondern eine durch Beobachtung (scheinbar) belegte wissenschaftliche Tatsache. Heute wissen wir das dieses Weltbild Quatsch ist, da kann man es noch so lange mit eigenen Augen sehen.

Über solche Fehler sind auch Algorithmen nicht erhaben, wie eine Untersuchung des Fraunhofer Instituts etwas nahelegt. Dort wollte man genauer wissen wie eine Bilderkennungssoftware lernt den Inhalt eines Bildes anhand von Beispielbildern zu erkennen. Der Algorithmus war recht gut darin eine Eisenbahn zu erkennen. Als man mittels einer Heatmap aber herausbekam, welche Aspekte der Algorithmus ganz besonders als Kriterium heranzog, war man überrascht. Es war eben nicht die Eisenbahn, sondern die Schienen, die dafür sorgten das eine Bild mit einer Eisenbahn als Bild mit einer Eisenbahn klassifiziert wurde. Hätte man aber ein Bild mit einem Auto reingeschmuggelt, das auf Schienen steht – der Algorithmus hätte wohl eine Eisenbahn erkannt. Mitunter hätten auch einfach schon die Schienen für eine entsprechende Einordnung genügt.

 

Der heiße Scheiß der Woche (060)

+ + + Microsoft unter Satya Nadella – eine Zwischenbilanz + + +

Bei Dr. Windows wirft man einen Rückblick auf die bisherige Amtszeit von Satya Nedella als Microsoft CEO. Eine durchaus zwiespältige Zeit, die mit einer kompletten Neuausrichtung von Microsoft begann, gerade in den letzten Monaten aber doch durchaus manchmal etwas planlos wirkt.

+ + + Social-Media-Automatisierung – Schlaue Entscheidung oder schlechte Alternative? + + +

Soll man seine Social Media-Aktivitäten automatisieren, für Wochen im Voraus planen? Es hat seine Vorteile, aber am Ende macht es die Mischung. Denn wer nur im Voraus plant, beschneidet sich vor allem in Kommunikation und Aktualität. Zwei Dinge, auf die man in diesem Bereich nicht verzichten darf.

+ + + Neue .shop Domains – die Alternative für Shopbetreiber? + + +

Eine neue Top Level Domain-Endung ist in unseren Tagen ja nun wahrlich nichts neues. Aber im Gegensatz zu so manch anderer Variante, könnte diese durchaus ein bisschen mehr Beachtung vertragen. Bei SEO United hat man auch ein gutes „Bauchgefühl“.

+ + + Twitter finally lets everyone create their own “Moments” + + +

Auch wenn ich es zu diesem Zeitpunkt noch nicht selbst testen konnte, mit Moments scheint Twitter gerade zur Abwechslung mal wieder etwas vernünftiges gelauncht zu haben bzw. es jetzt auch allen Usern zugänglich zu machen. Bisher war der Versuch mit Twitter Storytelling zu betreiben ja eher – na ja, nervig.

+ + + Der absurde Krieg der Wikipedia-Roboter + + +

Bots streiten sich untereinander? Wie es aussieht braucht es nicht einmal künstliche Intelligenz für Bots, damit sie grundlegendes menschliches Verhalten annehmen.