Analysen
Analysen
Veröffentlicht von Dennis Kallerhoff

Künstliche Intelligenz: Wall-E oder doch Terminator?


Das Thema Künstliche Intelligenz (AI) ist gleichzeitig faszinierend und hochkomplex. Mit der Thematik habe ich mich erstmals nach den beiden Posts des „super, super“ – viel Spaß in England, Pep – Blogs waitbutwhy zum Thema (a) Status Quo von AI und (b) Die Zukunft von AI näher beschäftigt.

Auch wenn es keine einheitliche Definition von künstlicher Intelligenz gibt, kann man AI grob wie folgt definieren:

Artificial Intelligence is the study of how to make computers do things at which, at the moment, people are better.

Ich mag diese Definition von Elaine Rich aus 1983, denn sie zielt nicht darauf ab dass KI zwangsläufig menschliches Verhalten kopiert.

Klassen von künstlicher Intelligenz

AI wird heute in drei Bereiche unterschieden:

  1. Artificial Narrow Intelligence (ANI): ANI beschreibt eine künstliche Intelligenz, die auf einem speziellen Bereich menschen-ähnliche oder höhere Intelligenz aufweist. Beispiele sind Autopiloten von Flugzeugen, selbstfahrenden Autos, Schachcomputer, Spam Filter, etc. In fast jedem Bereich trifft man heute auf ANI – häufig ohne dass wir es merken. Das letzte Mal groß in der Presse war AI im Zusammenhang mit dem Brettspiel Go. Die Google-Sofware Alpha Go trat gegen den Weltmeister in Go an. Noch Anfang des Jahres hatten Experten behauptet es würde noch Jahre dauern bis eine Maschine einen Menschen in diesem komplexen Spiel schlägt. Wie es ausging ist wahrscheinlich bekannt: Die AI gewann deutlich gegen den Weltmeister.
  2. Artificial General Intelligence (AGI): AGI beschreibt eine Intelligenz, die auf allen Gebieten menschenähnliche Intelligenz hat.
  3. Artificial Superintelligence (ASI): Beschreibt eine Intelligenz, die intelligenter ist als die intelligentesten Menchen in jedem einzelnen Gebiet – von Allgemeinwissen, über soziale Interaktion bis hin zu Forschung und Wissenschaft. ASI sind die Art von künstlicher Intelligenz, die in Holleywood-Filmem immer die Kontrolle über die Menschheit erlangen möchten. Terminator lässt grüßen.

Aktuelle Entwicklungen in AI

Besser als in diesem Bild von Tim Urban von waitbutwhy kann man die aktuelle Entwicklung im Bereich künstliche Intelligenz nicht zusammenfassen.

Urheberrecht liegt bei Tim Urban, waitbutwhy.com

Urheberrecht liegt bei Tim Urban, waitbutwhy.com

Kurzinterpretation des Bildes: Da kommt etwas Großes auf uns zu – und zwar schneller als wir es uns jetzt vorstellen können. Warum ist das so?

Während ANI schon Realität ist, gibt es noch keine AGI oder ASI. Geforscht wird allerdings massiv daran. Damit diese Realität werden benötigen wir (a) massive Rechenleistung, (b) viele verfügbare Daten zum Lernen (Buzzword: Big Data) und (c) „lernende Software“ – also das Hirn der AI.

Bezahlbare Rechenleistung wird Realität werden; spätesten mit Quantencomputern aber wahrscheinlich schon vorher. Auch mehr computerlesbare Daten als jemals zuvor liegen heute vor. Und deren Verfügbarkeit wird mit Wearables, etc. weiter massiv wachsen. (c) Software ist der schwierige Part. Allerdings ist es heute schon atemberaubend was selbstlernende Systeme (Stichworte: neuronale Netze, genetische Algorithmen) in der Lage sind zu tun. Der spooky Teil: sie sind eine komplette Black Box. Wir wissen nicht warum neuronale Netze zu den Entscheidungen kommen zu den sie kommen.

Zum Thema Künstliche Intelligenz gab es vor kurzem einen empfehlenswerten Podcast bei Digital Kompakt. Dort spricht Joel mit Fabian Westerheide über verschiedene Facetten von AI. Zwei Gedanken sind mir dabei besonders hängen geblieben.

Das menschliche Mißtrauen gegenüber Technik

Menschen werden AI wahrscheinlich nie als intelligent betrachten. Zwei Gründe:

(a) Der Mensch betrachtet Intelligenz immer in Relation zu sich selber. Wenn sich eine AI unerwartet bzw. nicht wie vom Menschen erwartet verhält, dann ist sie nicht intelligent – aus Blickwinkel einer Person. Verhalten der Maschinen muss aber nicht immer nachvollziehbar sein. Alpha Go machte bei seinen Siegen Züge, die von Experten als nicht gut oder nachvollziehbar bezeichnet wurden.

(b) Wir gewöhnen uns sehr schnell an neue Technologien. Wahrscheinlich würde niemand von uns Siri als intelligent bezeichnen. Aus einer Sicht von vor 15 Jahren würde Siri aber schon als ziemlich intelligent – wenn auch nicht menschen-intelligent – bezeichnet werden. Gäbe es vor 15 Jahren noch Hexenverbrennung wäre das heutige Siri wahrscheinlich auf dem Scheiterhaufen gelandet.

In Zusammenhang mit der Beurteilung von Intelligenz von Maschinen ergibt sich auch die Frage nach der menschlichen Akzeptanz von Fehlern einer Maschine. Das im Podcast gewählte Beispiel ist das einer AI, welche ein Auto in eine Menschenmenge fährt. Personen kommen zu Schaden kommen. Wenn dieser „Fehler“ aber nur mit einer Wahrscheinlichkeit von 0,00000000001% auftritt und die künstliche Intelligenz damit deutlich weniger fatale Fehler macht als der Mensch – wie würden wir das bewerten? Mein Gefühl: wir stoßen uns eher an den 0,00000000001% Fehlern als die – dem Menschen überlegene – Quote von 99,9999999999% ohne Fehler zu betrachten.

Übrigens ein allgemeines Problem bei der Bewertung von Technik, welches mir in vielen Diskussion rund um die Automatisierung von Performance Marketing begegnet. Es wird sich mehr an nicht-funktionierenden Einzelfällen aufgehangen als die positive Gesamtheit zu sehen.

Der Zusammenhang zwischen Grundeinkommen und AI

Wenn nun in Zukunft ANI – und später AGI und ASI – immer mehr Aufgaben von Menschen übernehmen (selbstfahrende Autos & Flugzeuge, Datenauswertungen über neuronale Netze, chirurgische Eingriffe, etc.) dann werden viele Jobs wegfallen – potenziell noch mehr als im Rahmen der Industrialisierung. In Deutschland haben wir damals von einer Industriegesellschaft zu einer Dienstleistungsgesellschaft gewandelt. Die spannende Frage ist: was kommt nach der Dienstleistungsgesellschaft wenn Maschinen die Erbringung Dienstleistungen von uns übernehmen?

Auf der anderen Seite geschieht durch die Maschinen weiterhin eine Wertschöpfung und das Brutto-Inlandsprodukt (in entwickelten Ländern) wird wachsen. Die Wertschöpfung erfordert nur weniger Jobs als jetzt. Das jetzige System würde zusammenbrechen. Aufrechterhalten werden könnte das ein soziales System durch ein bedingungsloses Grundeinkommen für jeden Menschen – finanziert durch die Arbeit von AI.

Was bringt die Zukunft?

Über den ganzen Themenkomplex lässt sich großartig diskutieren. Und auch heute bin ich mir immer noch nicht sicher ob ich an eine Zukunft á la Terminator (böse ASI) oder eine Zukunft á la Wall-E (gute ASI) glaube.

Was für mich nur feststeht: AGI und im nächsten Schritt ASI werden Realität werden. Und ich glaube, dass unsere Generation dies noch miterleben wird.


E-Commerce Junkie seit 2006 | Freund von Digitalisierung, Automatisierung und guten Online-Strategien

Kommentare anzeigen
Keine Kommentare vorhanden.