Die zweitgrößte Gefahr Künstlicher Intelligenz (KI) (15. März 2016)

Bisher wurde Software von Menschen entwickelt; der Softwarecode, der die Programme ausmacht, war bekannt. Das bedeutet: Es gab immer einen Menschen, der mit seinem Finger auf einen Abschnitt des Programmcodes zeigen und sagen konnte: “Dieser Programmteil ist für diesen Teil des Ergebnisses verantwortlich.” Zum Beispiel für die Datenanalyse, die zur Wetterprognose “Starkregen” geführt hat. Jetzt hat es aber nur ein bisschen geregnet, worauf die Wissenschaftler hingehen konnten und diesen Programmteil anpassen. Diese Ära ist mit KI vorbei!

Bei AlphaGo (unserem aktuellen Beispiel für KI) kann niemand auf ein Stück Programmcode zeigen, das für einen genialen (oder katastrophalen) Zug verantwortlich war. Man staunt “das war genial”, weiß aber nicht, warum. Und kann weder etwas daran ändern noch daraus lernen.

Das bedeutet:

  1. Kontrollverlust. Wenn man nicht weiß, warum ein Programm zu einem guten oder schlechten Ergebnis kam, hat man die Kontrolle darüber abgegeben. Am Ende sieht man achselzuckend zu, staunt oder erschrickt. Ohne Kontrolle wird man manipulierbar. Nicht schön. Vielleicht könnte man diese Gefahr durch Sicherheitsmechanismen eindämmen – wenn nicht die zweite Konsequenz wäre:
  2. Wissensverlust. Nehmen wir an, eine KI wird zum Meister für Wetterprognosen. Dann freuen wir uns selbstverständlich über gute Vorhersagen. Aber wer bezahlt dann noch Menschen dafür? Wenn es die Software doch besser kann? Wer investiert seine Lebenszeit in ein Studium zur Erstellung von Klimamodellen, wenn einen niemand danach fragen wird, weil die Software bessere Antworten hat?

AlphaGo hat es innerhalb eines halben Jahres geschafft, von Amateurniveau auf Weltmeisterniveau aufzusteigen. Und sie kann sich im gleichen Tempo weiterentwickeln. So schnell kann kein Mensch lernen. Das bedeutet, dass die Menschen in den Bereichen, in denen man KI einsetzt, immer weiter ins Hintertreffen geraten – und den Wettlauf überhaupt aufgeben, weil man eh keine Chance hat.

Wer sagt: “Jobverlust durch neue Erfindungen hat es schon immer gegeben”, sollte eines bedenken: Es geht hier nicht um anstrengende Routinetätigkeiten, für die Industrieroboter eingesetzt werden. Es geht um Wissenschaft, die die Menschheit voranbringt.

Die Konsequenzen:

Wir verlieren Know-how. Zusammen mit einem Verlust der Kontrolle ist das echt schmerzlich. Da sich diese Entwicklung ganz logisch aus wirtschaftlichen Zwängen und dem ständigen weltweiten Wettbewerb ergibt, wird es nicht einfach sein, dieser Gefahr auszuweichen.

4 Gedanken zu „Die zweitgrößte Gefahr Künstlicher Intelligenz (KI) (15. März 2016)“

  1. „Man staunt “das war genial”, weiß aber nicht, warum. Und kann weder etwas daran ändern noch daraus lernen.“

    Dass wir Programmierer manchmal keinen Schimmer haben wieso etwas funktioniert (der Klassiker „How did this ever work???“) ist keine Neuheit 😀

    1. Man könnte die KI fragen. Wenn die KI freundlich gesonnen ist und einen guten Tag hat wird sie vielleicht auch erklären was sie gemacht hat und wie sie es gemacht hat. 😉

        1. Das kann damit zusammen hängen welche Erfahrungen die KI gemacht hat. Hat sie gelernt was vorteilhafter ist, Lüge oder Wahrheit? Ab wann weiß eine KI was Vertrauen ist? Muss sie Angst haben abgeschaltet zu werden? Fragen ohne Ende.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.