11.12.2020
Künstliche Intelligenz (KI) unterstützt uns in unserem Alltag, bewusst oder unbewusst, bereits in vielen Bereichen. Wir agieren mit automatisierten Assistenten wie beispielsweise Sprachassistenten oder der Einparkhilfe im Auto, verwenden Gesichtserkennung beim Entsperren unserer Smartphones und lassen uns Musik und Filme vorschlagen. KI ist in unserem alltäglichen Leben schon sehr präsent – vielleicht sogar mehr, als uns oft bewusst ist. Die Anzahl der KI-Anwendungen wird auch in Zukunft noch weiter steigen. Wenn wir KI-Systeme erschaffen und verwenden, müssen wir uns in Zukunft nicht nur über die Chancen, sondern auch über die Risiken und die Herausforderungen bei deren Einsatz bewusst sein. Guidelines können uns dabei helfen, KI-Systeme zu erschaffen, die nicht nur effizient, sondern auch ethisch korrekt, sicher und vertrauenswürdig sind.
Die Vorteile und Einsatzgebiete von KI sind vielfältig. Anhand einiger einfacher Beispiele ist dies leicht nachzuvollziehen:
Die Verwendung von KI-Systemen bringt allerdings auch einige Nachteile und Risiken mit sich. Systeme, die nicht ausgereift sind oder zu wenig getestet wurden, können fehleranfällig sein. Ist die vom Streaminganbieter zum User Profiling eingesetzte KI nicht gut, bekommt man als Anwender Inhalte vorgeschlagen, die einen nicht interessieren bzw. die man nicht sehen will. Werden Qualitäten oder Ausfälle falsch prognostiziert, kann das zu Ausfällen, Umsatzeinbußen und erhöhten Kosten führen. Bei der Anwendung von KI in sensibleren Bereichen kann es zu noch tragischeren negativen Auswirkungen kommen. Man denke beispielsweise an ein autonom fahrendes Fahrzeug, dessen KI schlecht darin ist, Personen und Objekte zu unterscheiden. Dann wird im schlimmsten Fall nicht der Person ausgewichen und die Mülltonne angefahren, sondern der Mülltonne ausgewichen und dabei eine Person angefahren. Neben einer möglichen Fehleranfälligkeit von KI-Systemen sind auch andere Aspekte zu betrachten. Aktuell werden diesbezüglich vor allem ethische Aspekte, Datenschutz und die Transparenz von KI-Systemen thematisiert und diskutiert.
Neben einer möglichen Fehleranfälligkeit von KI-Systemen sind auch andere Aspekte zu betrachten. Aktuell werden diesbezüglich vor allem ethische Aspekte, Datenschutz und die Transparenz von KI-Systemen thematisiert und diskutiert. Fehler und Ungenauigkeiten in den verwendeten Daten, der Implementierung oder der Interpretation der Ergebnisse können dazu führen, dass Personen oder Gruppen diskriminiert werden, sie in ihrer Entscheidungsfähigkeit eingeschränkt werden oder das System auf andere Weise Schaden anrichtet. Ein bekanntes Beispiel ist das folgende: Bias (Verzerrungen) in den Daten führt dazu, dass auch auf den Daten trainierte Modelle diesen Bias abbilden. Ein “gutes” Modell lernt schließlich, so zu entscheiden, wie es der Mensch würde. Sind nun die dem Modell zugrundeliegenden Daten rassistisch, d.h. bilden diese Daten von Menschen getroffene, rassistische Entscheidungen ab, wird auch das Modell rassistisch entscheiden. Ein wirklich gutes Modell wie wir es uns als Gesellschaft wünschen würden – eines, das sicher und vertrauenswürdig ist – würde den in den Daten vorhandenen Bias nicht mitlernen bzw. uns eine Möglichkeit bieten, dies zu verhindern.
Neben der Datenqualität stellt oft auch die Interpretierbarkeit von KI-Modellen eine große Herausforderung dar. Bei Black Box-Modellen kann die Entscheidung des KI-Systems nicht oder nur sehr ungenau nachvollzogen werden. Dies wäre aber hinsichtlich Transparenz und Vertrauenswürdigkeit des Systems äußerst wichtig. Stellen Sie sich vor, eine KI entscheidet darüber, ob sie einen Kredit bekommen oder nicht. Im Falle einer Ablehnung möchten Sie nun wissen, warum Sie so beurteilt wurden, wie Sie beurteilt wurden. Sie haben sogar das Recht zu erfahren, warum eine KI welche Entscheidung über Sie getroffen hat. Hier wird ein großes aktuelles Problem augenscheinlich: Wenn man die Entscheidungen einer KI nachvollziehen können möchte, kann man keine Modelle verwenden, deren Ergebnisse nicht restlos erklärbar sind – auch wenn diese Modelle besser in der Beurteilung sind als andere.
Davon unabhängig, ob eine KI gute Entscheidungen über einen trifft und ob diese interpretierbar sind: Vielleicht möchte man als Mensch einfach nicht von einer KI beurteilt werden. Ein in diesem Rahmen oft diskutiertes Thema ist das sogenannte Social Profiling. Um das Beispiel der Kreditvergabe erneut zur Illustration heranzuziehen: Teilt eine KI die Anwerber automatisch in Kohorten ein, kann es sein, dass Ihnen aufgrund Ihres Alters oder Ihrer Herkunft ein Kredit verwehrt bleibt, der vergleichbaren KandidatInnen aber gegeben wird. Mit solchen ethischen Herausforderungen beschäftigen sich diverse Institutionen, Forschungseinrichtungen und NGOs. Beispielsweise legt Amnesty International hier (https://www.amnesty.at/zukunftmenschenrechte/kuenstliche-intelligenz-und-menschenrechte/) anhand von Beispielen dar, inwiefern KI-Systeme eine Gefahr für unsere Grundrechte darstellen können.
Die oben genannten Fragestellungen werden von verschiedenen Organisationen/Institutionen und aus verschiedenen Richtungen bearbeitet. Um KI-Systeme so entwickeln zu können, dass sie robust und transparent sind und keine Gefahr für uns darstellen, sondern uns unterstützen und uns überall da helfen, wo wir als Menschen an unsere Grenzen stoßen, wurden bereits verschiedene Guidelines entwickelt. Das Ziel ist dabei, dass wir als Gesellschaft der KI und ihren Entscheidungen vertrauen können. Ein bekanntes Beispiel sind die im April 2019 von der EU veröffentlichten Ethik-Leitlinien für eine vertrauenswürdige KI. Nach diesen sollten KI-Systeme unter der Einhaltung verschiedener ethischer Grundsätze entwickelt und eingesetzt werden. Neben Fairness und Schadensverhütung (KI-Systeme sollen keinen Schaden verursachen oder sich anderweitig negativ auswirken) werden im Kontext von KI-Systemen die ethischen Grundsätze der Achtung der menschlichen Autonomie und der Erklärbarkeit beschrieben. Die Erklärbarkeit umfasst in diesem Zusammenhang nicht nur die Nachvollziehbarkeit der generierten Ergebnisse (Stichwort Black Box-Modelle), sondern auch Transparenz in Bezug auf alle Prozesse, die Fähigkeiten und den Zweck des KI-Systems. Um die menschliche Autonomie zu wahren, muss die menschliche Aufsicht und Kontrolle über das KI-System und alle Prozesse sichergestellt sein. KI-Systeme sollen demnach Menschen nicht unterordnen, nötigen, konditionieren oder ähnliches, sondern die Fähigkeiten des Menschen unterstützen und ergänzen.
In den Guidelines werden verschiedene Anforderungen an KI-Systeme gestellt, um die ethischen Grundsätze zu wahren und Vertrauen zu schaffen, und verschiedene technische und nicht-technische Methoden zur Umsetzung vorgeschlagen. Im Folgenden sind alle Anforderungen an vertrauenswürdige KI aufgelistet.
Für die Entwicklung von guten und sicheren KI-Systemen wird es in Zukunft noch wichtiger, dass es keine negativen Auswirkungen gibt und dass alle Entscheidungen auch für uns Menschen nachvollziehbar sind. Andernfalls schenken die Menschen der KI zu wenig Vertrauen. Und fehlt das Vertrauen, fehlt auch die Akzeptanz solcher intelligenten Systeme in unserer Gesellschaft. Es ist besonders wichtig, dass sowohl Entwickler als auch Anwender die Chancen von KI-Systemen, aber auch deren Risiken und Grenzen kennen und verstehen. Dadurch und durch die Einhaltung von Guidelines, Achtsamkeit in der Entwicklung und durch die Verwendung von menschenzentrierten Entwicklungs- und Gestaltungsgrundsätzen können wir zukunftsfitte KI-Systeme schaffen.
Die RISC Software GmbH unterstützt Sie gerne bei der Einreichung und Durchführung von (Forschungs-) Projekten im Bereich Vertrauenswürdige KI.
Förderungen zum Thema Vertrauenswürdige KI:
Laufende themenoffene Ausschreibungen:
Link zu den EU Guidelines:
Seit der Gründung im Jahr 1992 durch Prof. Bruno Buchberger forscht und entwickelt die RISC Software GmbH für die Wirtschaft. Dabei werden in einzigartiger Weise die Kernkompetenzen Symbolisches Rechnen, Mathematik und Informatik im Rahmen der Geschäftsbereiche Logistik-Informatik, Industrielle Softwareanwendungen, Medizin-Informatik und des Kompetenzbereiches Data Management and Analytics zur Entwicklung praxisgerechter Softwarelösungen eingesetzt. Das Unternehmen steht zu 80% im Eigentum der Johannes Kepler Universität Linz sowie zu 20% im Eigentum der Upper Austrian Research GmbH – der Leitgesellschaft für Forschung des Landes Oberösterreich. Mehr Informationen unter www.risc-software.at.