Demokratie, Daten und schmutzige Tricks, so wird derzeitig über die Techkonzerne im Silicon Valley debattiert. „Sie sind keine Opfer. Sie sind Komplizen: Facebook nach Datenleck-Skandal im Kreuzfeuer“, titelt die absatzwirtschaft. „Durcheinander bei Facebook nach den Whistleblower-Enthüllungen: Die belegen, dass das Social Network zwei Jahre lang ein Datenleck ignorierte, das die Donald Trump nahestehende Datenanalysefirma Cambridge Analytica für ihre Zwecke ausnutzte. Facebook sperrt das Konto von Whistleblower Christopher Wylie, während Edward Snowden und andere Internetexperten das Social Network anzählen.“
Der Umgang mit der öffentlichen Kritik am Social Network, die seit der US-Wahl von Tag zu Tag größer geworden und inzwischen zu einem Orkan angewachsen ist, trägt längst die Züge eines klassischen Kommunikationsversagens. Und der Gegenwind, den Facebook selbst in der Tech-Szene erntet, wird heftiger. Zu bewundern etwa beim Digitalfestival South by Southwest (SXSW) in Austin. Da wertete man den Auftritt von offiziellen Vertretern des Zuckerberg-Konzerns als lebendig gewordene Pressemitteilungen – man könnte es auch Chatbot-PR nennen.
BlaBla-Kommunikation wird Mark Zuckerberg nicht retten
So entwickelt sich das halt, wenn man eine fast schon stalinistisch anmutende Politik in der Unternehmenskommunikation betreibt. Öffentliche Auftritte im Teleprompter-Modus – fernab von offener und direkter Dialogfähigkeit. Facebook ist ausschließlich als Sender unterwegs und pflegt nicht die Interaktion mit den Nutzern. Das, was Zuckerberg anderen empfiehlt, nämlich maximale Transparenz, praktiziert der Silicon Valley-Gigant intern überhaupt nicht. Die essen nicht ihr eigenes Hundefutter. Wer ausschließlich im weltweit führenden und absolutistisch gesteuerten Blabla-Habitus unterwegs ist, versagt in der Krisenkommunikation – ähnliches gilt übrigens für die Top-Leute von Google.
Kritisches Denken über KI-Systeme
Diese Debatte unter dem Schlagwort #Techlash wird so schnell nicht weggehen. Es geht um die Frage, ob die Netzfirmen eine angemessene Verantwortung für die Folgen ihrer Technologie übernehmen oder im Zuge ihres rigorosen Wachstumskurses die Kontrolle über Bord geworfen haben. So fordert die Zukunftsforscherin Amy Webb einen kritischen Umgang mit Daten, die in Systeme der Künstlichen Intelligenz eingespeist werden. Die seien schon dermaßen vorkategorisiert, dass die Maschinen alles andere als neutral seien.
Sie haben eingebaute Schwächen, die sie anfällig für Fehlentscheidungen machen, ihrem Einsatz Grenzen setzen und uns Menschen in die Pflicht nehmen, ihr algorithmisches Wirken stets kritisch zu hinterfragen. „Verblüffend dabei ist, wie menschlich die Schwächen von KI-Systemen wirken. So tendieren auch neuronale Netze zu Vorurteilen, die nicht vom Entwickler einprogrammiert wurden, sondern sich implizit aus den Trainingsdaten ergeben können. Wenn zum Beispiel eine KI-gestützte Kreditvergabe aufgrund der Trainingsdaten zu erkennen meint, dass eine ethnische Minderheit, Männer über 53,8 Jahre oder Radfahrer mit gelben Helmen und 8-Gang-Schaltung Kredite weniger zuverlässig zurückzahlen, wird sie es bei ihrem Scoring-Modell berücksichtigen. Dabei ist es egal ob dies illegal oder vollkommen unsinnig ist. Das erlernte Vorurteil ist umso gefährlicher, weil die Maschine es nicht offenlegt“, schreibt Thomas Ramge in seinem im Reclam Verlag erschienenen neuen Buch „Mensch und Maschine – Wie Künstliche Intelligenz und Roboter unser Leben verändern“.
Erkennen wir Vorurteile in Maschinen?
Bei Verdacht auf Rassismus wissen wir in der Regel, worauf wir achten müssen und können es bewusst korrigieren. „Dieses Problem wurde bei einem KI-System identiziert, das US-Richter bei ihrer Entscheidung unterstützt, ob sie Strafgefangene vorzeitig aus der Haft entlassen können oder die Rückfallgefahr zu hoch ist. Das System benachteiligt, so der Verdacht, Afro-Amerikaner und Hispanics. So wurde es zu einem Lehrbuchbeispiel für KI-Systeme mit antrainierten Vorurteilen, oder wie Verhaltensökonomen sagen: mit Bias. Viele Richter nutzen es deshalb nicht mehr. Bei vielen künftigen Anwendungen könnten wir Vorurteile von Maschinen zu spät oder gar nicht erkennen“, warnt Ramge.
Es gibt mittlerweile viele Stimmen, die sich bei KI-Systemen eine Art eingebaute Begründungsfunktion wünschen. „Wenn die Maschine eine bestimmte Chemotherapie bei einem bestimmten Patienten empfiehlt, darf es seinen Ratschlag nicht einfach ausspucken wie ein allwissendes Orakel. Es muss dem behandelnden Arzt gegenüber begründen, wie es zu diesem Ergebnis als beste Lösung des Problems gekommen ist“, schreibt Ramge.
Solche Stimmen zur Plausibilität gibt es bereits in Ansätzen, aber sie treffen auf ein grundsätzliches Problem. Die Lernvorgänge in neuronalen Netzwerken sind das Ergebnis von Millionen und Abermillionen Verknüpfungen. Von denen beeinflusst jede ein klein wenig das Ergebnis. Laut Range, sei die Entscheidungsfindung daher so kompliziert, dass die Maschine dem Menschen nicht erklären oder zeigen kann, wie sie zu der Entscheidung „kreditwürdig“ oder „nicht-kreditwürdig“ gekommen ist.
Wo kommen die Daten her?
Wir müssen wohl alles kritisch hinterfragen, was die Maschine uns sagt. Amy Webb fordert daher mehr Transparenz von Firmen, die KI-Systeme einsetzen. Es müsse klar gesagt werden, welche Forscher beteiligt sind, nach welchen Annahmen gearbeitet wird, wo die Daten herkommen und mit welchen Gewichtungen gerechnet wird. Letztlich komme man um eine schärfere Regulierung nicht herum.
„Je besser Maschinen Entscheidungen treffen können, desto intensiver müssen wir Menschen uns darüber Gedanken machen, welche Entscheidungen wir an Künstliche Intelligenz delegieren wollen. Denn auch im Zeitalter der Automatisierung von Entscheidungen durch KI gilt: Menschen müssen mit ihren Entscheidungen glücklich werden, Computer nicht“, so Ramge. Und er verweist auf ein weiteres Problem. Die Feedbackschleifen der KI-Systeme, die Facebook und Co. einsetzen, verschärfen den Datenmonopolismus.
Feedback-Daten-Monopolismus
Eine entscheidende und oft übersehene Rolle bei lernenden Computersystemen kommt den Feedback-Daten zu. „Je öfter und genauer ein lernendes System Rückmeldung erhält, ob es die richtige Telefonnummer herausgesucht, tatsächlich die beste Strecke berechnet oder eine Hautkrankheit auf einem Foto korrekt diagnostiziert hat, desto besser und schneller lernt es“, weiß Ramge. Rückkopplung sei der technische Kern jeder automatischen Steuerung von Maschinen. Mit Feedback-Daten optimiere Amazon seine Empfehlungsalgorithmen und Facebook die Zusammenstellung der Posts, die ein Nutzer auf seiner Timeline sieht. Die Summe aller Feedback-Daten erziele im Zeitalter der Künstlichen Intelligenz eine vergleichbare Wirkung, wie der Skaleneffekt für die Massenproduktion des Industriezeitalters und der Netzwerkeffekt für die digitale Wirtschaft der vergangenen 25 Jahre. Der Netzwerkeffekt führte die digitalen Plattformen zu Oligopolgröße.
Netzwerkeffekt heißt: Mit jedem neuen Teilnehmer werde eine Plattform attraktiver für alle, die sie nutzen. Der Feedbackeffekt der Künstlichen Intelligenz wiederum führe dazu, dass Systeme immer smarter werden. Dies hängt allerdings damit zusammen, wie viele Menschen oder Maschinen Feedback-Daten liefern. „Innovative Newcomer werden gegen Platzhirsche der KI-getriebenen Wirtschaft nur noch in Ausnahmefällen eine Chance haben. Sich selbst verbessernde Technologie hebelt Wettbewerb aus“, betont der brandeins-Autor. Menschen müssten eine juristische Antwort auf dieses technische Problem finden.
Pflicht zur Daten-Teilung
Seit Karl Marx wissen wir, dass im Kapitalismus die Tendenz zur Marktkonzentration und Kapitalakkumulation dominiert. Im Zeitalter von Wissen und Information kamen die Netzwerkeffekte immer stärker ins Spiel. In den vergangenen zwanzig Jahren erschufen Microsoft, Apple, Amazon, Google, Facebook auf den digitalen Märkten der westlichen Welt Oligopolstrukturen. Zum Teil sogar Quasimonopole. Das sei bereits heute höchst problematisch. Allerdings wird es dann so richtig brandgefährlich für den Wettbewerb, wenn lernende Maschinen mit Feedback-Daten immer stärker zur Wertschöpfung beitragen.
„Künstliche Intelligenz schaltet der Monopolisierung den Turbo ein, weil sich die Produkte und Dienstleistungen mit eingebauter KI mithilfe von Feedback-Daten selbst verbessern. Je öfter sie genutzt werden, je mehr Marktanteile sie erobern, desto schwerer wird ihr Vorsprung aufzuholen sein. Viktor Mayer-Schönberger, Professor für Internet Governance and Regulation an der Oxford University, und ich haben in unserem Buch ‚Das Digital’ deshalb die Einführung einer progressiven Daten-Sharing-Pflicht für die Goliaths der Datenwirtschaft gefordert“, führt Ramge im lesenswerten Reclam-Band aus. Wenn digitale Unternehmen einen bestimmten Marktanteil überschreiten, müssten sie einen Teil ihrer Daten mit ihren Wettbewerbern teilen. Dies allerdings natürlich unter Beachtung des Datenschutzes und damit meist anonymisiert. Bislang gibt es wettbewerbspolitisch noch nicht viel auf diesem Sektor.
Diskutiert das Bundeskartellamt über einen drohenden Feedback-Daten-Monopolismus? Da ist dem Notiz-Amt nichts bekannt. Selbst bei den Netzwerkeffekten des Plattform-Kapitalismus haben die Wettbewerbshüter ordnungspolitisch bislang wenig zu bieten. Sie haben auch etwas spät mit dem Nachdenken in ihrem 2015 gegründeten Think Tank angefangen.
Klicken Sie auf den unteren Button, um den Inhalt von ichsagmal.com zu laden.
Kennt eigentlich einer diese Denkfabrik? Ramge und Mayer-Schönberger haben jedenfalls eine überfällige Debatte angestoßen, die wohl auch in den politischen Schaltzentralen angekommen ist.
So viel hat Ramge dem Notiz-Amt-Schreiber jedenfalls verraten.
Artikel per E-Mail verschicken
Schlagwörter: #Techlash, Daten, Daten-Monopolismus, Datenkapitalismus, facebook, Feedback-Daten, KI, KI-Systeme, Netzwerkeffekte, Thomas Ramge, Trainingsdaten