Vertrauen in die Künstliche Intelligenz

Wie wir vertrauenswürdige KI-Systeme schaffen und nutzen

© sdecoret / shutterstock.com
© sdecoret / shutterstock.com

11.12.2020

Künstliche Intelligenz (KI) unterstützt uns in unserem Alltag, bewusst oder unbewusst, bereits in vielen Bereichen. Wir agieren mit automatisierten Assistenten wie beispielsweise Sprachassistenten oder der Einparkhilfe im Auto, verwenden Gesichtserkennung beim Entsperren unserer Smartphones und lassen uns Musik und Filme vorschlagen. KI ist in unserem alltäglichen Leben schon sehr präsent – vielleicht sogar mehr, als uns oft bewusst ist. Die Anzahl der KI-Anwendungen wird auch in Zukunft noch weiter steigen. Wenn wir KI-Systeme erschaffen und verwenden, müssen wir uns in Zukunft nicht nur über die Chancen, sondern auch über die Risiken und die Herausforderungen bei deren Einsatz bewusst sein. Guidelines können uns dabei helfen, KI-Systeme zu erschaffen, die nicht nur effizient, sondern auch ethisch korrekt, sicher und vertrauenswürdig sind.

KI auf dem Vormarsch

Die Vorteile und Einsatzgebiete von KI sind vielfältig. Anhand einiger einfacher Beispiele ist dies leicht nachzuvollziehen:

  • Recommendation-Systeme versuchen, aus unserer bisherigen Auswahl unseren Geschmack zu lernen und uns dann Inhalte vorzuschlagen, die uns gefallen. Streaming-Anbieter wie Spotify oder Netflix setzen seit Jahren auf diese Art von KI.
  • Methoden des Natural Language Processing (NLP) helfen uns, Texte zu verstehen oder zu generieren. Dadurch wird zum Beispiel eine automatisierte Übersetzung von Texten in so hoher Qualität möglich, dass diese Texte oftmals nicht mehr von Menschen geschriebenen Texten zu unterscheiden sind.
  • In der Industrie können Maschinen durch die Anwendung von KI frühzeitig gewartet und dadurch Ausfälle reduziert oder gänzlich verhindert werden. Bei solchen Anwendungen spricht man von Predictive Maintenance. Generell können durch Predictive Analytics Ausfälle von Maschinen, die Qualität von hergestellten Produkten oder auch Bestellungen bzw. Bestellmengen vorhergesagt werden. Bei Prescriptive Analytics – als Erweiterung zu Predictive Analytics ein aktuelles Forschungsgebiet – versucht man, auf Basis von Vorhersagen, kausalen Zusammenhängen und Domänenwissen optimale Entscheidungen zu treffen.
  • In der Medizin können KI-Systeme Ärzte sowohl in der Diagnose als auch in der Behandlung unterstützen. Beispielsweise können auf Basis von Bilddaten Tumore oder Krankheiten automatisiert erkannt, auf Basis von Patientendaten und Symptomen Diagnosen vorgeschlagen und Krankheitsverläufe analysiert und prognostiziert werden
  • KI-Systeme im Auto ermöglichen eine automatische Verkehrszeichenerkennung, helfen die Spur zu halten und ermöglichen sogar autonomes Fahren.

 

Aktuelle Herausforderungen und Probleme

Die Verwendung von KI-Systemen bringt allerdings auch einige Nachteile und Risiken mit sich. Systeme, die nicht ausgereift sind oder zu wenig getestet wurden, können fehleranfällig sein. Ist die vom Streaminganbieter zum User Profiling eingesetzte KI nicht gut, bekommt man als Anwender Inhalte vorgeschlagen, die einen nicht interessieren bzw. die man nicht sehen will. Werden Qualitäten oder Ausfälle falsch prognostiziert, kann das zu Ausfällen, Umsatzeinbußen und erhöhten Kosten führen. Bei der Anwendung von KI in sensibleren Bereichen kann es zu noch tragischeren negativen Auswirkungen kommen. Man denke beispielsweise an ein autonom fahrendes Fahrzeug, dessen KI schlecht darin ist, Personen und Objekte zu unterscheiden. Dann wird im schlimmsten Fall nicht der Person ausgewichen und die Mülltonne angefahren, sondern der Mülltonne ausgewichen und dabei eine Person angefahren. Neben einer möglichen Fehleranfälligkeit von KI-Systemen sind auch andere Aspekte zu betrachten. Aktuell werden diesbezüglich vor allem ethische Aspekte, Datenschutz und die Transparenz von KI-Systemen thematisiert und diskutiert.

Neben einer möglichen Fehleranfälligkeit von KI-Systemen sind auch andere Aspekte zu betrachten. Aktuell werden diesbezüglich vor allem ethische Aspekte, Datenschutz und die Transparenz von KI-Systemen thematisiert und diskutiert. Fehler und Ungenauigkeiten in den verwendeten Daten, der Implementierung oder der Interpretation der Ergebnisse können dazu führen, dass Personen oder Gruppen diskriminiert werden, sie in ihrer Entscheidungsfähigkeit eingeschränkt werden oder das System auf andere Weise Schaden anrichtet. Ein bekanntes Beispiel ist das folgende: Bias (Verzerrungen) in den Daten führt dazu, dass auch auf den Daten trainierte Modelle diesen Bias abbilden. Ein “gutes” Modell lernt schließlich, so zu entscheiden, wie es der Mensch würde. Sind nun die dem Modell zugrundeliegenden Daten rassistisch, d.h. bilden diese Daten von Menschen getroffene, rassistische Entscheidungen ab, wird auch das Modell rassistisch entscheiden. Ein wirklich gutes Modell wie wir es uns als Gesellschaft wünschen würden – eines, das sicher und vertrauenswürdig ist – würde den in den Daten vorhandenen Bias nicht mitlernen bzw. uns eine Möglichkeit bieten, dies zu verhindern.

Neben der Datenqualität stellt oft auch die Interpretierbarkeit von KI-Modellen eine große Herausforderung dar. Bei Black Box-Modellen kann die Entscheidung des KI-Systems nicht oder nur sehr ungenau nachvollzogen werden. Dies wäre aber hinsichtlich Transparenz und Vertrauenswürdigkeit des Systems äußerst wichtig. Stellen Sie sich vor, eine KI entscheidet darüber, ob sie einen Kredit bekommen oder nicht. Im Falle einer Ablehnung möchten Sie nun wissen, warum Sie so beurteilt wurden, wie Sie beurteilt wurden. Sie haben sogar das Recht zu erfahren, warum eine KI welche Entscheidung über Sie getroffen hat. Hier wird ein großes aktuelles Problem augenscheinlich: Wenn man die Entscheidungen einer KI nachvollziehen können möchte, kann man keine Modelle verwenden, deren Ergebnisse nicht restlos erklärbar sind – auch wenn diese Modelle besser in der Beurteilung sind als andere.

Davon unabhängig, ob eine KI gute Entscheidungen über einen trifft und ob diese interpretierbar sind: Vielleicht möchte man als Mensch einfach nicht von einer KI beurteilt werden. Ein in diesem Rahmen oft diskutiertes Thema ist das sogenannte Social Profiling. Um das Beispiel der Kreditvergabe erneut zur Illustration heranzuziehen: Teilt eine KI die Anwerber automatisch in Kohorten ein, kann es sein, dass Ihnen aufgrund Ihres Alters oder Ihrer Herkunft ein Kredit verwehrt bleibt, der vergleichbaren KandidatInnen aber gegeben wird. Mit solchen ethischen Herausforderungen beschäftigen sich diverse Institutionen, Forschungseinrichtungen und NGOs. Beispielsweise legt Amnesty International hier (https://www.amnesty.at/zukunftmenschenrechte/kuenstliche-intelligenz-und-menschenrechte/) anhand von Beispielen dar, inwiefern KI-Systeme eine Gefahr für unsere Grundrechte darstellen können.

 

Guidelines zur Schaffung von vertrauenswürdigen KI-Systemen

Die oben genannten Fragestellungen werden von verschiedenen Organisationen/Institutionen und aus verschiedenen Richtungen bearbeitet. Um KI-Systeme so entwickeln zu können, dass sie robust und transparent sind und keine Gefahr für uns darstellen, sondern uns unterstützen und uns überall da helfen, wo wir als Menschen an unsere Grenzen stoßen, wurden bereits verschiedene Guidelines entwickelt. Das Ziel ist dabei, dass wir als Gesellschaft der KI und ihren Entscheidungen vertrauen können. Ein bekanntes Beispiel sind die im April 2019 von der EU veröffentlichten Ethik-Leitlinien für eine vertrauenswürdige KI. Nach diesen sollten KI-Systeme unter der Einhaltung verschiedener ethischer Grundsätze entwickelt und eingesetzt werden. Neben Fairness und Schadensverhütung (KI-Systeme sollen keinen Schaden verursachen oder sich anderweitig negativ auswirken) werden im Kontext von KI-Systemen die ethischen Grundsätze der Achtung der menschlichen Autonomie und der Erklärbarkeit beschrieben. Die Erklärbarkeit umfasst in diesem Zusammenhang nicht nur die Nachvollziehbarkeit der generierten Ergebnisse (Stichwort Black Box-Modelle), sondern auch Transparenz in Bezug auf alle Prozesse, die Fähigkeiten und den Zweck des KI-Systems. Um die menschliche Autonomie zu wahren, muss die menschliche Aufsicht und Kontrolle über das KI-System und alle Prozesse sichergestellt sein. KI-Systeme sollen demnach Menschen nicht unterordnen, nötigen, konditionieren oder ähnliches, sondern die Fähigkeiten des Menschen unterstützen und ergänzen.

In den Guidelines werden verschiedene Anforderungen an KI-Systeme gestellt, um die ethischen Grundsätze zu wahren und Vertrauen zu schaffen, und verschiedene technische und nicht-technische Methoden zur Umsetzung vorgeschlagen. Im Folgenden sind alle Anforderungen an vertrauenswürdige KI aufgelistet.

  • Vorrang menschlichen Handelns und menschlicher Aufsicht: KI-Systeme sollen die menschliche Autonomie und Entscheidungsfindung unterstützen und durch den Menschen beaufsichtigt werden können. Je weniger Aufsicht ein Mensch über ein KI-System ausüben kann, desto ausführlicher muss es zuvor getestet werden und desto strenger muss die Lenkung und Kontrolle sein.
  • Technische Robustheit und Sicherheit: Damit ein System als robust gilt, muss es einwandfrei funktionieren und die Ergebnisse präzise und reproduzierbar sein. Die Sicherheit schließt die Risikoprävention, das Erstellen von Auffangplänen und den Schutz vor Angriffen und Zweckentfremdung ein.
  • Schutz der Privatsphäre und Datenqualitätsmanagement: Benutzerdaten müssen geschützt werden und dürfen nicht dazu verwendet werden, Benutzer zu diskriminieren. Das Datenqualitätsmanagement ist zur Sicherstellung der Qualität der Daten, der Dokumentation und zur Kontrolle über die Zugriffe nötig.
  • Transparenz: Nur wenn ein System und dessen Ergebnisse rückverfolgbar, d.h. nachprüfbar und erklärbar, sind und die Fähigkeiten und Einschränkungen des Systems klar kommuniziert werden, ist das System voll transparent.
  • Vielfalt, Nichtdiskriminierung und Fairness: Alle Interessenträger müssen während des gesamten Lebenszyklus des KI-Systems eingebunden und gleichbehandelt werden. Wichtig ist dabei, dass Verzerrungen (Stichwort Bias) vermieden werden und das System möglichst barrierefrei und benutzerorientiert gestaltet ist.
  • Gesellschaftliches und ökologisches Wohlergehen: Eine KI soll zum Wohle aller Menschen eingesetzt werden und während ihres gesamten Lebenszyklus sollen die breitere Gesellschaft, andere fühlende Wesen und die Umwelt als Akteure berücksichtigt werden. Dies schließt vor allem Nachhaltigkeit, Umweltfreundlichkeit, soziales Bewusstsein und die Wahrung von Demokratie ein.
  • Rechenschaftspflicht: Zur Gewährleistung der Verantwortlichkeit und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse müssen Vorkehrungen getroffen werden. Schutzbedürftige Personen müssen besonders berücksichtigt werden und im Falle, dass es zu nachteiligen Auswirkungen kommt, muss ein angemessener Rechtsschutz gegeben sein.

 

Fazit


Für die Entwicklung von guten und sicheren KI-Systemen wird es in Zukunft noch wichtiger, dass es keine negativen Auswirkungen gibt und dass alle Entscheidungen auch für uns Menschen nachvollziehbar sind. Andernfalls schenken die Menschen der KI zu wenig Vertrauen. Und fehlt das Vertrauen, fehlt auch die Akzeptanz solcher intelligenten Systeme in unserer Gesellschaft. Es ist besonders wichtig, dass sowohl Entwickler als auch Anwender die Chancen von KI-Systemen, aber auch deren Risiken und Grenzen kennen und verstehen. Dadurch und durch die Einhaltung von Guidelines, Achtsamkeit in der Entwicklung und durch die Verwendung von menschenzentrierten Entwicklungs- und Gestaltungsgrundsätzen können wir zukunftsfitte KI-Systeme schaffen.

Die RISC Software GmbH unterstützt Sie gerne bei der Einreichung und Durchführung von (Forschungs-) Projekten im Bereich Vertrauenswürdige KI.

 

Förderungen

Förderungen zum Thema Vertrauenswürdige KI:

Laufende themenoffene Ausschreibungen:

Link zu den EU Guidelines:

 

Firmeninfo RISC Software GmbH

Seit der Gründung im Jahr 1992 durch Prof. Bruno Buchberger forscht und entwickelt die RISC Software GmbH für die Wirtschaft. Dabei werden in einzigartiger Weise die Kernkompetenzen Symbolisches Rechnen, Mathematik und Informatik im Rahmen der Geschäftsbereiche Logistik-Informatik, Industrielle Softwareanwendungen, Medizin-Informatik und des Kompetenzbereiches Data Management and Analytics zur Entwicklung praxisgerechter Softwarelösungen eingesetzt. Das Unternehmen steht zu 80% im Eigentum der Johannes Kepler Universität Linz sowie zu 20% im Eigentum der Upper Austrian Research GmbH – der Leitgesellschaft für Forschung des Landes Oberösterreich. Mehr Informationen unter www.risc-software.at.