Ethische KI

Ethik & Künstliche Intelligenz: Was darf KI? Und was darf sie nicht?

Als KI-Unternehmen arbeitet Retresco in dem spannenden Grenzgebiet zwischen Technologie, Wirtschaft und Gesellschaft – ein ebenso interessantes wie sensibles Thema. Denn angesichts der zunehmenden Durchdringung unseres Alltags durch KI stellt sich die Frage nach der ethischen und gesellschaftlichen Verantwortung so stark wie nie zuvor: Schon heute entscheidet ein Algorithmus, welche Flugpreise uns bei der Onlinebuchung angeboten oder welche News in unserem Facebook-Feed angezeigt werden.

Die technologischen Mechanismen, die dahinterstehen, sind für den Durchschnittsnutzer derweil größtenteils intransparent und unverständlich –  eine Tatsache, die nicht unbedingt zur größeren gesellschaftlichen Akzeptanz von Künstlicher Intelligenz führen mag. Andere Problemfelder entstehen beispielsweise dann, wenn KI-Systeme fehlerhafte Entscheidungen treffen oder systematisch bestimmte gesellschaftliche Gruppen diskriminiert. Oder wenn Regierungen die Technologie dazu nutzen, um Bürger vollständig zu überwachen und massiv in ihre Privatsphäre eindringen. Es wird deutlich: Brisante Aspekte rund um das Thema Künstliche Intelligenz betreffen häufig nicht nur die Frage, was KI kann, sondern auch, was sie überhaupt darf.   

 

Künstliche Intelligenz mit Akzeptanzproblemen 

In regelmäßigen Abständen belegen Studien, dass das gesellschaftliche Vertrauen in Künstliche Intelligenz nicht besonders gut ausgeprägt ist. So hat zuletzt eine Umfrage im Auftrag des Weltwirtschaftsforums mediale Aufmerksamkeit auf sich gezogen: Auf die Frage “Sorgen Sie sich um den Einsatz von Künstlicher Intelligenz?” antworteten 41 Prozent der Befragten mit Ja, so eine dpa-Meldung auf Zeit Online. Laut 19 Prozent der Befragten sollte der Einsatz Künstlicher Intelligenz sogar verboten werden. Mehr als 20.000 Menschen in Deutschland, China, USA, Saudi-Arabien und 23 weiteren Ländern haben an der Umfrage teilgenommen. Die Studie verdeutlicht die teilweise großen Vorbehalte, die Menschen KI-Systemen entgegenbringen. Eine Steigerung von Akzeptanz und Vertrauen in Künstliche Intelligenz ist unabdinglich, setzt jedoch einen aufgeklärten Umgang damit voraus, was KI kann und nicht kann. Und vor allem: Was sie darf und nicht darf.  

 

Ethische Herausforderungen von Natural Language Processing  

Auch KI-basierte Anwendungen im Bereich Natural Language Processing – dem Technologiebereich, in dem auch Retresco aktiv ist – sind vor möglichen Risiken nicht gefeit. Im Februar 2019 zog die US-amerikanische Non-Profit-Organisation OpenAI mediale Aufmerksamkeit auf sich: Die Forschungseinrichtung entwickelte ein KI-basiertes Sprachmodell namens Gpt2, das Texte von rund acht Millionen Websites – insgesamt 40 Gigabyte Daten – analysiert hat und anschließend automatisiert Texte verfassen sollte. Von den Ergebnissen waren die Forscher selbst überrascht: Der KI-Textgenerator lieferte qualitativ so gute Texte – ein Beispiel kann hier nachgelesen werden -, dass sich die Forscher aus Sorge um Missbrauch dazu entschlossen haben, das Sprachmodell nicht bzw. nur in einer abgespeckten Version zu veröffentlichen. “We started testing it, and quickly discovered it’s possible to generate malicious-esque content quite easily”, kommentiert Jack Clark, Policy Director von OpenAI, gegenüber dem MIT Technology Review. Die größten Sorgen der Forscher bezogen sich darauf, dass das System für die kostengünstige und massenhafte Produktion und Distribution von Fake News in sozialen Netzwerken missbraucht werden könnte. 

Die hier aufgezählten Szenarien lassen die Beschäftigung mit der Frage, wie ein ethischer Umgang mit Künstlicher Intelligenz gestaltet werden könnte, unausweichlich erscheinen. Was darf Künstliche Intelligenz? Wer trägt die Verantwortung für Entscheidungen, die von einer Künstlichen Intelligenz getroffen werden? Und last but not least: Welchen Einfluss hat Künstliche Intelligenz auf unser Selbstverständnis als Mensch? – dies sind nur einige der Fragen, um die sich die Debatte rund um das Thema Ethik und Künstliche Intelligenz kreist.  

 

Ethische KI: Fair, transparent, werteorientiert & sicher 

Als erste internationale Institution hat sich die Europäische Kommission dieser Fragen angenommen und versucht, Kriterien für eine “Trustworthy AI” auf Basis der EU-Grundrechtecharta zu etablieren. Unter dem Titel “Ethics Guidelines for Trustworthy AI” hat die sogenannte High-Level Expert Group on AI – 52 KI-Expertinnen und Experten aus Wissenschaft, Politik und Wirtschaft – am 8. April 2019 ihre 40-seitigen Leitlinien veröffentlicht. Die vier folgenden Themenfelder wurden dabei als zentral für die Entwicklung und Anwendung einer solchen “vertrauenswürdigen KI” angesehen:  

Fairness: In der Vergangenheit berichteten Medien häufig von Zwischenfällen, in denen eine KI bestimmte Personengruppen diskriminierte: So zum Beispiel bei der Google-Bildersuche, die People of Color irrtümlich als Gorilla kategorisierte, oder ein HR-Algorithmus bei Amazon, der Bewerberinnen systematisch benachteiligte. Wenn solche Probleme auftauchen, spielt häufig auch Qualität des Datensatzes, mit dem die KI trainiert wurde, eine Rolle. Diese Trainingsdaten können Diskriminierungen, die bereits in der Gesellschaft vorkommen, in unterschiedlich starker Ausprägung widerspiegeln. Wurde eine Gesichtserkennungssoftware beispielsweise nur mit Fotos von Personen mit heller Haut trainiert, wird sie bei der Erkennung von People of Color haben. Eine Vermeidung von unfairen Entscheidungen könnte folglich u.a. durch ausbalancierte Datensätze, die gesellschaftliche Diversität berücksichtigen, sichergestellt werden.

Transparenz & Nachvollziehbarkeit: Die Entwicklung transparenter und nachvollziehbarer KI-Verfahren ist in vielen Bereichen Voraussetzung für einen sicheren Einsatz von KI. Jedoch ist in vielen Anwendungsfällen gar nicht mehr nachzuvollziehen, wie ein KI-System – und insbesondere solche, in denen Neuronale Netze eingesetzt werden – überhaupt zu seinem Ergebnis gekommen ist. Um dieses Black-Box-Phänomen zu umgehen, sollten Ergebnisse im Rahmen einer sogenannten Explainable AI so aufbereitet werden, dass sie für Menschen nachvollziehbar und erklärbar sind.  

Verantwortlichkeit: Der Einsatz von KI-Systemen stellt unser konventionelles Wertesystem und das Prinzip von Verantwortung und Haftung ein Stück weit infrage: Bislang konnten Entscheidungen und somit auch die Verantwortung von bestimmten Handlungen stets Personen zugerechnet werden. Wenn die Handlungen von KI-Systemen jedoch nun teilweise nicht mehr durch Menschen kontrolliert werden können (und müssen), sollte die Frage nach Verantwortung neu verhandelt werden. So sprechen sich Experten dafür aus, die Rechenschaftspflicht für KI-Systeme zu verschärfen: Es sollte z.B. a priori bestimmt werden, wer für KI-Systeme die Verantwortung trägt, um Verantwortungsdiffusion zu vermeiden. Zudem sollte in Mensch-Maschine-Interaktionen der Mensch die Möglichkeit haben, zu intervenieren oder aber ein System anhalten oder unterbrechen zu können. In Kürze: Vieles kann automatisiert werden, Verantwortung gehört jedoch nicht dazu. Auch wenn zukünftig mehr und mehr Entscheidungen an Algorithmen oder KI-Systeme delegiert werden, heißt das nicht automatisch, dass auch die Verantwortung für solche Entscheidungen – und damit auch für etwaige Fehlentscheidungen – bei den Maschinen liegen sollte.

Werteorientierung: KI-Systeme sollten menschenzentriert und werteorientiert gestaltet sein, sodass sie der Gesellschaft, der Umwelt und zukünftigen Generationen zugutekommen. Eine Orientierung an Grundwerten ist dabei unabdingbar: Sie sollte Freiheit, Gleichheit, Gerechtigkeit, Solidarität, Toleranz und Pluralismus fördern und nicht zu Diskriminierungszwecken oder gegen demokratische Strukturen eingesetzt werden. 

 

Künstliche Intelligenz zählt zu den größten Möglichkeiten unser Zeit: Sie kann zum wirtschaftlichen Wachstum beitragen, Gesundheitsrisiken reduzieren, unseren Alltag und unser Arbeitsleben erleichtern und unsere Umwelt verbessern. Und gerade weil KI-Systeme unseren gegenwärtigen und zukünftigen Alltag maßgeblich beeinflussen werden, gilt es solide ethische Werte zu definieren, die die Entwicklung von und den Umgang mit Künstlicher Intelligenz sicherstellen.  

 

 

Über Retresco | @retresco

Bereits seit 2008 entwickelt Retresco führende KI-Lösungen im Bereich Content Automation. In den letzten Jahren hat sich das Unternehmen zunehmend zu einem der weltweit führenden Anbieter in der automatischen Textgenerierung (Natural Language Generation) entwickelt und dutzende Projekte für Kunden aus den Bereichen Medien, E-Commerce und Finanzdienstleistungen umgesetzt.