Anfang März hat zum ersten Mal überhaupt ein Computer (Genauer: Das Computer-Programm AlphaGo) gegen einen Menschen das asiatische Brettspiel Go gewinnen können. Bereits früher haben Computer gegen Menschen in verschiedenen Spielen gewinnen können. So gewann 1997 der IBM-Computer Deep Blue gegen den damaligen Schach-Weltmeister Garri Kasparow, 2011 gewann der IBM-Computer Watson zum ersten Mal in der US-TV-Show Jeopardy! gegen die menschlichen Mitspieler.
Beim Brettspiel Go ist das besondere jedoch, dass die übliche Logik der Programmierung der Maschine durch bloßes Eingeben aller denkbaren Züge, um aus jeder Situation heraus die relativ optimale Entscheidung zum nächsten Zug treffen zu können, nicht mehr ausreicht, um den Spielablauf bewältigen zu können.
Bereits nach dem Legen des zweiten Steins im Spiel Go gibt es theoretisch über 100.000 denkbare Spiel-Konstellationen. Die Gesamtzahl der in einem Spiel theoretisch denkbaren Züge liegt über der Zahl der Atome im gesamten Universum. Da ist es nachvollziehbar, dass dieser Möglichkeitsraum mit einer händisch konfigurierten Entscheidungslogik nicht mehr abbildbar ist.
Somit ist die zu Google gehörende Firma DeepMind andere Wege gegangen und hat begonnen, die Methode des Deep Learning anzuwenden. Beim Deep Learning lernen Computer ebenso wie ihre menschlichen neuronalen Pendants mit Hilfe künstlicher Neuronen, die in Layern nacheinander geschaltet sind und von Layer zu Layer (daher der Begriff “Deep” Learning) zu einer akkurateren Aussage (Output) bezüglich des zu analysierenden Inputs (Bilder, sonstige Daten) kommen (eine sehr gute Beschreibung des gesamten Lernprozesses findet sich auf der verlinkten Golem-Seite).
Durch “Trainieren” der Neuronen ist es möglich, im Laufe der Zeit zu immer besseren Ergebnissen in der Analyse des Inputs zu kommen. Erst dadurch ist es AlphaGo möglich geworden, die im Spiel Go geforderte Intuition angesichts der schier unendlichen Zahl von Entscheidungsmöglichkeiten händelbar zu machen.
AlphaGo als letzter Schritt zur Erreichung der technischen Singularität?
Das Spannende an dieser Methode ist, dass irgendwann selbst die Projektverantwortlichen nicht mehr erklären konnten, warum der Algorithmus in der Weise entscheidet wie er entscheidet. Übertragen auf den Go-Wettbewerb, wurde immer wieder betont, dass AlphaGo Züge gemacht habe, die nach menschlichem Ermessen keinen Sinn machten.
Dass der menschliche Sinn an dieser Stelle vielleicht nicht mehr ausreicht, um die Maschine zu verstehen, wird deutlich, wenn man die Vorhersagen des neuronalen Netzwerkes betrachtet. Dieses war speziell mit der Berechnung der Gewinnwahrscheinlichkeit von AlphaGo befasst und hatte in den meisten Fällen die Niederlage des Menschen bereits richtig vorhergesehen, als alle anderen anwesenden Menschen dies überhaupt noch nicht erkannten. Damit aber hat der Computer ein Maß an Intuition und Urteilsfähigkeit bewiesen, wie man es vor noch nicht einmal 2 Jahren in der Fach-Community allenfalls und frühestens für das Jahr 2024 vorhergesehen hatte.
Erreichen wir damit das Zeitalter der technischen Singularität schneller als vorhergesagt? Das Zeitalter, in dem sich Maschinen schneller selbst weiter entwickeln als es der menschliche Experten nachzuvollziehen im Stande ist? Nicht umsonst ist im Jahre 2012 einer der prominentesten Vertreter der Vorstellung von der technologischen Singularität – Raymond Kurzweil – ausgerechnet zu Google gewechselt.
Der Mensch als hybrides Wesen?
Vor einiger Zeit hatte Kurzweil seine These bekräftigt, nach der Menschen spätestens ab 2030 als hybride Lebenwesen mit einer Schnittstelle ins Internet existieren würden.
Betrachtet man die Forschung um AlphaGo und die Thesen von Kurzweil gemeinsam, so wird automatisch ein weitergehendes offensichtliches Ziel der Google Projekte sichtbar. Technologische Singulartität wird als der Zeitpunkt in der Zukunft beschrieben, ab dem sich Maschinen mittels Künstlicher Intelligenz selbst weiterentwickeln und sich damit dem Verständnis der Menschen entziehen; wird dies kombiniert mit Künstlicher Intelligenz, die zunehmend intuitiv entscheiden kann, so ist die Selbständigkeit der Maschinen plötzlich in zeitlich absehbarer Zeit denkbar:
“And it’s different from a program you’ve hand-crafted where you know all the nuances of what you can do: here it has picked up things for itself”
Menschliche versus algorithmische Erkenntnis?
Die eine Möglichkeit, auf diese sich anbahnenden Entwicklungen einzugehen, wäre diese zu kritisieren und ein Schreckensszenario zu skizzieren, das stark an die kulturpessimistischen Terminator-Filme des letzten Jahrhunderts erinnert. Ganz in Tradition eines deutschen Kulturpessimismus konnte mit Blick auf das Go-Experiment schnell festgestellt werden:
“Das birgt eine Gefahr: Wenn wir uns auf die Vorhersagen der Rechenmaschinen verlassen, ohne zu begreifen, wie diese Vorhersagen zustandekommen, verabschieden wir uns vom Grundprinzip wissenschaftlicher Erkenntnis”
Dieses Mal beschränkt sich allerdings die Sicht auf die Künstliche Intelligenz und AlphaGo nicht nur auf deutsche Medien. Auch Elon Musk, Bill Gates und Stephen Hawking haben in den letzten beiden Jahren immer wieder vor der Vernichtung des Menschen durch eine künstliche Intelligenz gewarnt. So stellte Hawking vor 2 Jahren in einem BBC-Interview fest:
“The development of full artificial intelligence could spell the end of the human race.”
Sind denn Atomwaffen und Klimawandel moralisch und rational?
Anfang diesen Jahres betonte er dann aber auch, dass es vor allem die menschengemachten globalen Krisen seien – Atomwaffenproduktion, Klimawandel und genetisch modifizierte Viren – die langfristig die Existenz des Menschen gefährden würden. Spannnend ist dann an dieser Stelle, die aktuellen Einlassungen von Hawking mit dem Statement von Google in Hinblick auf das Go-Experiment in Einklang zu bringen. Denn Google schreibt im Google Blog zur weiteren Zielsetzung des AlphaGo-Experiments:
“Ultimately we want to apply these techniques to important real-world problems. Because the methods we’ve used are general-purpose, our hope is that one day they could be extended to help us address some of society’s toughest and most pressing problems, from climate modelling to complex disease analysis.”
Künstliche Intelligenz oder auch Superintelligenz müssen also nicht zwangsläufig in einer Apokalypse enden. Vielleicht ist es gerade der Schritt hin zur extensiven Nutzung der Künstlichen Intelligenz, der uns vor den Folgen unserer eigenen Fehler bewahren kann?
Künstliche Intelligenz als Ausweg aus globaler Komplexität?
In einer Zeit, in der globale und gesellschaftliche Komplexität mit den nicht mehr absehbaren direkten und indirekten Folgen interdependenter Handlungen und Akteure immer mehr an Dynamik gewinnt, wäre es doch hilfreich, eine Künstliche Intelligenz an seiner Seite zu wissen, von der zumindest glaubhaft vermutet werden kann, dass sie Muster und Logiken in der menschlich nicht mehr nachvollziehbaren Komplexität erkennt:
“Neural networks can be used in all sorts of settings that demand the human-like capacity to evaluate various strategies under conditions of uncertainty.”
Dass sich hingegen ausgerechnet der Mensch mit seiner jahrtausendealten Tradition der Kriege und der in der Neuzeit erworbenen Fähigkeit, sich seiner eigenen Lebensgrundlagen auf globaler Ebene zu berauben, herausnimmt, Maschinen oder Künstliche Intelligenz für deren – für den Menschen nicht mehr nachvollziehbare Entscheidungslogik – zu kritisieren, mutet dann doch etwas überheblich und kurzsichtig – also menschlich – an. Sich wider besseren Wissens mit der Nutzung von Autos und nicht nachhaltigen Energien die eigene Lebensgrundlage beständig aufzuheizen und zu vernichten, zeugt jedenfalls in keiner Weise von der Intelligenz und moralischen Integrität, wie wir sie doch gleichzeitig von Algorithmen und Robotern einfordern.
Künstliche Intelligenz rettet schon heute Leben
Die bereits jetzt erkennbaren Gewinne, die die Nutzung von AI erzielt, sind zudem auch nicht wegzudiskutieren und sollten bei moralischen Einordnungen der Ethik von Algorithmen (solange sie vom Menschen entwickelt worden sind?) berücksichtigt werden. Bereits eine kleine Auswahl der positiven Beispiele spricht eine deutliche Sprache:
-
Nach Selbstauskunft von Google könnten 94% aller Autounfälle in den USA durch autonom fahrende Autos zukünftig verhindert werden. Dies wäre im Idealfall eine Reduzierung der Unfalltoten um 30.000/Jahr allein in den USA.
-
Permanent laufende Analysen der Vitaldaten von Frühgeborenen erkennen bereits 24h vor Ausbruch einer Infektion die vom Menschen noch nicht identifizierbare Gefahr und ermöglichen rechtzeitige Medikamentengabe.
-
Das technisch mögliche ständige Tracken von Umwelt- und Gefahrgut-Daten könnte Katastrophen wie die Chemieunfall in Tianjin/China im letzten Jahr verhindern helfen.
-
Die AppleWatch steht einem EKG in der Genauigkeit nicht nach. Der Tod infolge eines Kreislaufzusammenbruchs in die häufigste Todesursache bei älteren Menschen. Die permanente Überwachung durch ein solches Device könnte unzählige Menschenleben retten.
Sicher kann all die Technik auch genutzt werden, um Waffen entsprechend intelligent auszugestalten. Der halb-automatische Waffenroboter an der innerkoreanischen Grenze ist sicher ein abschreckendes Beispiel – entwickelt von der Konsumelektronikfirma Samsung. Die aktuellen Videos vom Atlas Roboter der zu Alphabet gehörenden Firma Boston Dynamics muten durchaus unheimlich an und eine Nähe von Google zur CIA ist ja auch schon lange bekannt.
Es wäre aus meiner Sicht aber gegenüber diesen Frühgeborenen und den älteren Menschen mehr als rücksichtslos, die Beantwortung der vielen offenen ethischen Fragen im Kontext der Künstlichen Intelligenz vor die Rettung ihres eigenen Lebens zu stellen. Würde denn dann nicht genau der Mensch Gott spielen, so wie es der deutsche Kulturpessimismus der Künstlichen Intelligenz ja vorhält? Wieso sollten wir den Anspruch haben, eine Technik bis in alle Zukunft bis ins Letzte durchdringen zu können, bevor wir sie abertausende Menschen zugute kommen lassen? Wäre nicht gerade dieses Vorgehen Ausdruck ebenjener menschlichen Moral, die uns Kriege und die schleichende Selbstvernichtung gebracht hat und die wir deshalb gerade mit Hilfe der Algorithmen auch mal in Frage stellen sollten statt jeden Fortschritt proaktiv zu verbieten, wenn man schreibt:
“Ist die Superintelligenz gottgleich, weil sie scheinbar übermächtig intelligent ist und dabei nicht mehr durch Menschen zu verstehen ist?”
Der Autor scheint in die richtige Fragerichtung zu streben, bleibt aber auf halber Strecke stehen. Was die Superintelligenz und das Internet als neuronaler Backbone der Menschheit mit Gott zu tun haben könnte, kann man gut beim schwedischen Internetvordenker Alexander Bard nachlesen.
Was wäre, wenn ein Algorithmus nicht imstande wäre, den menschlichen Widersinn, der hinter Klimawandel und Ausbeutung der Biosphäre steckt, rational nachzuvollziehen? Welch Moral wäre denn dann dem Menschen dienlicher; die menschliche oder die Moral des sich irgendwann selbst weiterentwickelnden Algorithmus?
Teaser & Image “Künstliche Intelligenz” by 849356 (CC0 Public Domain)
Artikel per E-Mail verschicken
Schlagwörter: Algorithmus, AlphaGo, Gesellschaft, Künstliche Intelligenz, Menschen, roboter, Singulaität, technik, Technolgie, Wissenschaft, zukunft
2 comments