Künstliche Intelligenz – Hintergründe + Film

Endlich habe ich wieder Zeit gefunden, im Dickicht der vielen Informationen nach spannenden Sachen zu stöbern. Einen Artikel und einen Film habe ich für die gefunden, die sich für Künstliche Intelligenz (KI) interessieren.

Den Artikel gibt es in Spiegel Online. Er beantwortet umfangreich und wirklich gut verständlich eine Menge Fragen, die es rund um KI gibt. Also eine prima Einführung, wer sich noch nicht so viel damit beschäftigt hat.

Eine Kleinigkeit darin erscheint mir am Spannendsten, denn sie ist so schlicht und einfach – und doch so weitreichend. „Künstliche Intelligenz – Hintergründe + Film“ weiterlesen

Die größte Gefahr Künstlicher Intelligenz (16. März 2016)

Zum Schluss (bevor ich auf die Buchmesse fahre) noch ein Gedanke zur größten Gefahr Künstlicher Intelligenz (KI).

Wenn neue Entwicklungen nützlich sind und vor allem, wenn man damit Geld verdienen kann, breiten sie sich in alle denkbaren Bereiche aus. Das ist quasi ein Naturgesetz auf unserem Planeten. Anfangs wird es wenige KI-Lösungen geben, später immer mehr. Genauso, wie es mit Computern angefangen hat. Und genauso wie bei Computern wird man auch KI-Lösungen miteinander vernetzen.

Was bedeutet das? Es entsteht etwas völlig Neues, Großes. Bei Computern war es das Internet. Sie nutzen es selbst, sonst würden Sie diese Zeilen nicht lesen. Es bietet eine Unmenge an Vorteilen und hat unsere Welt vollkommen verändert. Es ist extrem schwierig zu kontrollieren, und bis auf wenige autoritäre Staaten scheitern alle daran.

KI ist viel größer als Computer. Sehr viel. Was wird dann erst durch die Vernetzung entstehen? Wenn man schon bei Einzellösungen die Kontrolle verliert?

Selbst eine einzelne Künstliche Intelligenz ist in der Lage schneller zu wachsen, als es ein Mensch könnte. Das hat uns AlphaGo gezeigt. Bei Einzellösungen kann man dieses Problem in den Griff bekommen, indem man die Software auf die Lösung einer speziellen Aufgabe beschränkt. Bei einer globalen Vernetzung halte ich es für unmöglich. Zumal dadurch etwas völlig Neues entsteht, das mehr ist als die Summe seiner Teile (siehe Internet).

Was das Problem erschwert, ist der Kontrollverlust, den man bei Einsatz von KI hat (siehe Beitrag von gestern). Wie wird sich das bei der Software-Entwicklung auswirken? Wie bei neuer KI? Software-Entwicklung und erst Recht die Entwicklung von KI ist eine komplizierte Geschichte, an der oft Hunderte hochbegabte Entwickler sitzen. Das ideale Einsatzgebiet, um sich dabei von KI unterstützen zu lassen. KI wird also helfen, KI zu entwickeln. Ups. Das wird spannend.

Ich möchte an dieser Stelle keinesfalls alles Schwarz malen. Aber wenn Leute wie Bill Gates oder Stephen Hawking sich Sorgen um dieses Thema machen, die man gewiss nicht als einfältige Technik-Hasser einstufen kann, scheint KI doch eine Sache zu sein, die man nicht zu leicht nehmen sollte. Bis zu einer ernsten Gefahr dauert es noch etwas. Vielleicht fallen einigen klugen Menschen ja Lösungen dazu ein. Und wenn nicht? Dann können wir ja eine KI bauen, die wir fragen, wie wir KI im Griff behalten können.

Die zweitgrößte Gefahr Künstlicher Intelligenz (KI) (15. März 2016)

Bisher wurde Software von Menschen entwickelt; der Softwarecode, der die Programme ausmacht, war bekannt. Das bedeutet: Es gab immer einen Menschen, der mit seinem Finger auf einen Abschnitt des Programmcodes zeigen und sagen konnte: “Dieser Programmteil ist für diesen Teil des Ergebnisses verantwortlich.” Zum Beispiel für die Datenanalyse, die zur Wetterprognose “Starkregen” geführt hat. Jetzt hat es aber nur ein bisschen geregnet, worauf die Wissenschaftler hingehen konnten und diesen Programmteil anpassen. Diese Ära ist mit KI vorbei!

Bei AlphaGo (unserem aktuellen Beispiel für KI) kann niemand auf ein Stück Programmcode zeigen, das für einen genialen (oder katastrophalen) Zug verantwortlich war. Man staunt “das war genial”, weiß aber nicht, warum. Und kann weder etwas daran ändern noch daraus lernen.

Das bedeutet:

  1. Kontrollverlust. Wenn man nicht weiß, warum ein Programm zu einem guten oder schlechten Ergebnis kam, hat man die Kontrolle darüber abgegeben. Am Ende sieht man achselzuckend zu, staunt oder erschrickt. Ohne Kontrolle wird man manipulierbar. Nicht schön. Vielleicht könnte man diese Gefahr durch Sicherheitsmechanismen eindämmen – wenn nicht die zweite Konsequenz wäre:
  2. Wissensverlust. Nehmen wir an, eine KI wird zum Meister für Wetterprognosen. Dann freuen wir uns selbstverständlich über gute Vorhersagen. Aber wer bezahlt dann noch Menschen dafür? Wenn es die Software doch besser kann? Wer investiert seine Lebenszeit in ein Studium zur Erstellung von Klimamodellen, wenn einen niemand danach fragen wird, weil die Software bessere Antworten hat?

AlphaGo hat es innerhalb eines halben Jahres geschafft, von Amateurniveau auf Weltmeisterniveau aufzusteigen. Und sie kann sich im gleichen Tempo weiterentwickeln. So schnell kann kein Mensch lernen. Das bedeutet, dass die Menschen in den Bereichen, in denen man KI einsetzt, immer weiter ins Hintertreffen geraten – und den Wettlauf überhaupt aufgeben, weil man eh keine Chance hat.

Wer sagt: “Jobverlust durch neue Erfindungen hat es schon immer gegeben”, sollte eines bedenken: Es geht hier nicht um anstrengende Routinetätigkeiten, für die Industrieroboter eingesetzt werden. Es geht um Wissenschaft, die die Menschheit voranbringt.

Die Konsequenzen:

Wir verlieren Know-how. Zusammen mit einem Verlust der Kontrolle ist das echt schmerzlich. Da sich diese Entwicklung ganz logisch aus wirtschaftlichen Zwängen und dem ständigen weltweiten Wettbewerb ergibt, wird es nicht einfach sein, dieser Gefahr auszuweichen.