Bei Künstlicher Intelligenz scheiden sich die Geister. Die einen sagen, dass künstliche Intelligenz gefährlich ist. Schließlich verlassen wir uns auf eine Programmierung und machen uns regelrecht abhängig von Programmen. Für die andere ist künstliche Intelligenz die Zukunft, die dem Menschen mehr Zeit für die spannenden Aufgaben gibt. Tatsächlich ist KI längst auch in der Gegenwart angekommen. Die EU beschäftigt sich bereits damit, ethische Leitlinien für Künstliche Intelligenz zu beschließen.
Die Expertengruppe besteht aus 52 Personen. Dabei handelt es sich um Vertreter der sozialen Gesellschaft, Industrie und Wissenschaft. Davon kommen allein 23 Personen aus Unternehmen, drei weitere aus Lobbyverbänden. Vier weitere Fachleute kommen aus der Ethik und zehn aus Organisationen zum Schutz von Verbraucher- und Bürgerrechten.
Was die Expertengruppe macht
Die Aufgabe der Expertengruppe ist es, gemeinsame ethische Leitlinien für künstliche Intelligenz zu erarbeiten. Im April 2018 beschloss die EU-Kommission dazu einen dreistufigen Ansatz:
Schritt 1
Im ersten Schritt legt die EU-Kommission Anforderungen für eine vertrauenswürdige KI vor. Bereits im Dezember 2018 verfasste die Expertengruppe einen ersten Entwurf. Nachdem dieser nochmals in einer offenen Konsultation diskutiert wurde, veröffentlichte die EU am 8. April 2019 die überarbeiteten Leitlinien zur ethischen Anwendung künstlicher Intelligenz.
Schritt 2
Nach der Veröffentlichung des aktuellen Entwurfs, befindet sich die KI-Strategie nun im zweiten Schritt. In einer umfangreichen Pilotphase wird Rückmeldung von unterschiedlichen Interessensgruppen eingeholt. So soll in der Praxis ein gemeinsamer Konsens gefunden werden. Währenddessen werden von der EU-Kommission auch Netzwerke von KI-Forschungszentren eingerichtet.
Schritt 3
Nach der Pilotphase wertet die KI-Expertengruppe schließlich die Bewertungsliste auf die wichtigsten Anforderungen aus und schlägt weitere Schritte vor. Insgesamt soll das Projekt nicht nur die EU umfassen, sondern im besten Fall international eine gemeinsame ethische Leitlinie für künstliche Intelligenz schaffen. So möchte man sich mit gleichgesinnten Partnern wie Japan, Kanada und Singapur stärken und Diskussionen auf wichtigen Gipfeln starten.
Diese drei Eigenschaften sollen vertrauenswürdige KI-Systeme vorweisen
Ob die Zusammenarbeit zwischen Mensch und KI-System funktioniert, hängt maßgeblich davon ab, dass wir der KI auch vertrauen. Ohne Vertrauen leidet die Akzeptanz und wir können nicht das volle Potential der Technologie ausschöpfen.
Die ethischen Leitlinien für künstliche Intelligenz umfassen daher drei wichtige Komponenten, die ein System erfüllen muss, um den sozio-technischen Ansprüchen gerecht zu werden.
Rechtmäßig: Die KI beachtet alle geltenden Vorschriften und Gesetze. Das gilt sowohl für Verbote als auch Gebote. Die Künstliche Intelligenz darf also keine Verbote Missachten und soll gleichsam das tun, was sie nach Geboten MUSS.
Ethisch: Die KI hält ethische Grundsätze und Werte ein. Da diese meist auch gesetzlich verankert sind, ist es eher eine Ergänzung zur ersten Eigenschaft.
Robust: Sowohl aus technischer, als auch aus sozialer Sicht, muss die KI robust sein. So soll verhindert werden, dass die KI – auch wenn unbeabsichtigt – Schaden verursacht, trotz guter Absichten. Das bedeutet, dass die KI auf alle möglichen Szenarien zuverlässig reagiert und im Zweifelsfall auf eine Sicherheitslösung zurückgreifen kann.
Anforderung an die Verwirklichung eine vertrauenswürdige KI
Um die drei Eigenschaften umzusetzen, hat die Kommission sieben Anforderungen an KI-Systeme ausgearbeitet.
1. Vorrang menschlichen Handelns und menschliche Aufsicht
Das KI-System hat den Menschen zu unterstützen, aber keinen Einfluss auf ihn auszuüben. Mechanismen, die das Entscheidungsverhalten beeinflussen sind daher verboten. Auch muss in irgendeiner Form eine menschliche Aufsicht involviert sein, die bei Bedarf auch entscheiden kann, dass die KI eine Aufgabe nicht übernimmt.
2. Technische Robustheit und Sicherheit
Technische Robustheit ist die Garantie, dass eine KI zuverlässig und gemäß ihrer Bestimmung arbeitet. Das bedeutet unter anderem, dass sie Widerstandsfähig gegen Angriffe und Sicherheitsverletzungen ist. Darüber erkennt die KI zuverlässig Sachverhalte und bedenkt alle relevanten Szenarien. Im Falle eines Ausnahmefalls reagiert sie entsprechend, um unerwünschte Schäden zu vermeiden.
3. Schutz von Privatsphäre und Datenschutz
Datenschutz ist allein schon wegen der DSGVO ein wichtiges Thema für KI-Systeme. Daten dürfen daher nur im Rahmen des zugestimmten Verwendungszwecks genutzt werden. Außerdem muss das KI-System Wert darauf legen, Personen aufgrund der vorliegenden Daten unrechtmäßig oder unfair zu diskriminieren.
4. Transparenz
Zur Transparenz gehört, dass die Entscheidungen der KI technisch erklärbar sind und sich zurückverfolgen lassen. Die KI darf außerdem nicht als Mensch gegenüber anderen Nutzer auftreten.
5. Vielfalt, Nichtdiskriminierung und Fairness.
Wie schon in Punkt 3 erwähnt, darf sich aus den Daten keine Ungleichbehandlung ergeben. Darum garantiert eine vertrauenswürdige KI Inklusion und Vielfalt. Gleichzeitig ist aber auch unlauterer Wettbewerb, etwa durch KI-gesteuerte Preisabsprachen oder einen undurchsichtigen Markt verboten. Systeme sind so zu entwerfen, dass sie barrierefrei zugänglich sind.
6. Gesellschaftliches und ökologisches Wohlergehen
Sowohl die Entwicklung der KI, als auch ihr Einsatz achtet auf Aspekte der Nachhaltigkeit. Außerdem bezieht die KI mögliche gesellschaftliche und ökologische Auswirkungen ein und überwacht sie sorgfältig.
7. Rechenschaftspflicht
Stark mit der der Robustheit und Transparenz verbunden, ist die Rechenschaftspflicht. Die KI muss bewertbar und nachprüfbar sein. Da einzelne Anforderungen sich nicht immer vertragen, muss ein Kompromiss nach neuestem Stand der Technik und auf rationaler Ebene erfolgen. Auch ein angemessener Rechtsschutz muss gewährleistet werden, bei dem schutzbedürftige Personen oder Gruppe besondere Aufmerksamkeit erhalten.
Vorerst nicht bindend
Bislang handelt es sich bei den ethischen Leitlinien für Künstliche Intelligenz nur um genau das: Leitlinien. Sie dienen in erster Linie als eine Empfehlung für die Entwicklung Künstlicher Intelligenz.
Mit dem Ziel, sich auch über die EU hinaus auf gemeinsame Standards zu einigen, können die Leitlinien jedoch Basis für feste Regeln sein. Auch zuerst angedachte rote Linien wurden am Ende doch nicht in die Leitlinien aufgenommen. In Workshops diskutierte die Kommission durchaus ein Verbote von KI-Systemen, etwa für ein Social Scoring wie in China, Forschung an autonomen Waffensystemen oder automatisierte Identifikation von Personen mittels Gesichtserkennung.
Image by fotomek via stock.adobe.com
Artikel per E-Mail verschicken
Schlagwörter: ethische Leitlinien, EU, Europäische Union, KI, Künstliche Intelligenz