KI Forschung zu ethischen und gesetzlichen Anforderungen

Ob autonomes Fahren oder KI Lösungen im Umfeld der Industrie 4.0. Rein technisch sind viele Anforderungen umsetzbar. Doch wie sollen sich Systeme entscheiden, wenn es um Fairness oder es sich um ethische und gesetzliche Anforderungen handelt?

Wissenschaftler des Max-Planck-Instituts für Intelligente Systeme in Tübingen untersuchen Daten auf ihren kausalen Zusammenhang. Erst wenn selbstlernende Maschinen nachweislich unsere ethischen und gesetzlichen Anforderungen erfüllen, wird sie die Gesellschaft als fair akzeptieren.

Während sich gesellschaftliche Normen immer mehr, vor allem im Zeitalter der Digitalisierung verändern, entsteht die Notwendigkeit, dass selbstlernende Maschinen, die dem Menschen zuarbeiten, fair handeln. Nur wenn diese künstliche Intelligenz Fairness ebenso interpretiert und umsetzt wie Menschen, werden ihre Entscheidungen Akzeptanz finden. Entscheidungen durch selbstlernende Algorithmen, denen möglicherweise rassistische oder sexistische Merkmale unterliegen würden, sind in der Gesellschaft nicht akzeptabel. Gleichzeitig rückt mit zunehmender Tragweite des Einsatzes von KI – künstlicher Intelligenz – die Transparenz im Bereich maschinelles Lernen zunehmend in den Fokus.

 

Als intelligente, selbstlernende Maschinen nur in der Industrie eingesetzt wurden, da machte sich keiner Gedanken, ob ein Computer fair handelt. Es wurde nicht darauf geachtet, ob man moralische oder ethische Anforderungen an Machine Learning stellen sollte,
Niki Kilbertus Max Planck Institutsagt Niki Kilbertus, Wissenschaftler am Max-Planck-Institut für Intelligente Systeme in Tübingen. „Doch spätestens seit die gleichen Algorithmen Anwendung in einem sozialen Kontext finden muss man sich die Frage stellen: sind diese selbstlernenden Maschinen fair oder diskriminieren sie, wenn auch ungewollt?“ Anstatt also wertfreie Entscheidungen zu fällen, tut künstliche Intelligenz manchmal genau das Gegenteil: sie diskriminiert aufgrund der Daten, mit der sie gefüttert wird.

KI Forschung am Beispiel Bankkredit

Bereits aufgrund der Postleitzahl, die ein potentieller Kreditnehmer angeben muss, könnte ein Lernalgorithmus diskriminierend gegen eine einzelne Person oder eine bestimmte demographische Gruppe wirken. Beispielsweise könnte eine Bank keine Kredite an Menschen mit einer bestimmten Postleitzahl mehr vergeben, weil der selbstlernende Computer zu dem Schluss kommt, dass in diesem Stadtteil die Ausfallquote höher ist als anderswo.

Würde man den Algorithmus machen lassen, würde der Antragsteller den Kredit vielleicht nicht bekommen, auch wenn er eine hohe Kreditwürdigkeit hat,
erklärt Kilbertus.

Kilbertus und seine Kollegen suchen hier nach einer fairen Lösung: sie suchen den kausalen Zusammenhang, warum gerade in diesem besagten Stadtteil das Risiko hoch ist, dass Kreditnehmer ihre Ratenzahlungen nicht mehr bedienen können. „Es kann sein, dass in dieser Postleitzahl die Ausfallquote einfach höher ist, was die Bank dann als Argument nehmen würde, sicherheitshalber gar keine Kredite an Menschen, die dort leben, zu vergeben. Falls aber gleichzeitig in dieser Region vorwiegend eine bestimmte Minderheit wohnt, dann findet hier implizit eine Diskriminierung statt, da diese Minderheit nun systematisch benachteiligt wird.“ Ein starker Appell an alle, zu hinterfragen, wie Daten zustande kommen. Denn wie sollen wir einer künstlichen Intelligenz unseren Alltag regeln lassen, wenn ihre Entscheidungen Verzerrungen enthalten können?

KI Problem per Definition

Das Problem ist die formale Definition von „fairen“ Entscheidungen: Fairness ist subjektiv, es gibt keine Definition, die für alle Kulturkreise gleichermaßen gültig ist. Daher besteht Kilbertus Algorithmus, eine mathematische Formel mit vielen Variablen, nur auf dem Papier. Sie ist, wie die meisten Forschungsarbeiten an den Max-Planck-Instituten, Grundlagenforschung. „Es ist bisher nur Theorie. Wir haben keine Experimente gemacht – die Idee ist allein konzeptioneller Natur. Kein Unternehmen dieser Welt verwendet einen fairen Algorithmus, so wie er uns vorschwebt. Das Problem ist, diese kausalen Schlussfolgerungen zu ziehen. Das würde sehr viel Zeit und Kosten verursachen,“ sagt Kilbertus. „Was wir wissen ist, dass die gängige Praxis nicht ausreicht, um unsere Intuition von Fairness vollständig wiederzugeben.“

Die Grundlagenforschung von Kilbertus und seinen Kollegen soll dazu dienen, ein Umdenken in einer Gesellschaft anzuregen, in der maschinelles Lernen und KI – künstliche Intelligenz künftig immer mehr Entscheidungen beeinflussen werden.

Wenn Maschinen unsere eigenen Wertvorstellungen übernehmen sollen, dann darf man Daten nicht einfach blind weiterverwerten. Wir müssen uns fragen: wie kamen sie zustande? Wir müssen Zusammenhänge hinterfragen. Diese müssen wir zuerst verstehen und formal definieren, bevor wir maschinelles Lernen im sozialen Kontext einsetzen und als fair akzeptieren können.

Hintergrund Max-Planck-Institut für Intelligente Systeme

Täglich wird über KI – Künstliche Intelligenz berichtet: Autos fahren immer autonomer, erste Drohnen transportieren Pakete, Roboter werden uns zunehmend im Alltag helfen und medizinische Eingriffe werden künftig teilweise von winzigen Robotern im Körper erledigt. Mit der Digitalisierung der Industrie und der Entwicklung cyber-physischer Systeme werden intelligente Systeme immer mehr ein Teil unserer Welt. Die Fähigkeit, Systeme für autonome Robotik und intelligente Software zu entwickeln, ist eine künftige Schlüsseltechnologie für Industrie, Transport und Logistik als auch für unsere Gesellschaft als Ganzes.

max planck institut kuenstliche intelligenz

Intelligente Systeme funktionieren autonom in komplexen, sich verändernden Umgebungen und passen sich diesen an. Intelligente Systeme in der Natur – inklusive der Mensch – haben durch Interaktion, Evolution und Lernen ausgeklügelte Fähigkeiten entwickelt, erfolgreich in der Welt zu bestehen. Jedoch ist unser Verständnis dieser Phänomene noch sehr beschränkt, und die Synthese von intelligenten, autonomen und lernenden Systeme bleibt eine grosse wissenschaftliche Herausforderung. Die Wissenschaftler am Max-Planck-Institut für Intelligente Systeme erforschen die fundamentalen Fragen von Wahrnehmung, Handeln und Lernen, die intelligenten Systemen zugrunde liegen. Sie erzielen ihre Ergebnisse durch theoretische und algorithmische Arbeiten als auch an physikalischen Systemen aller Größenordnungen und wollen dieses Verständnis nutzen, um zukünftige künstliche intelligente Systeme zu entwickeln.

(Quelle: Max-Planck-Institut für Intelligente Systeme)

Schreibe einen Kommentar

Durch die weitere Nutzung der Seite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn Sie diese Website ohne Änderung der Cookie-Einstellungen verwenden oder auf "Akzeptieren" klicken, erklären Sie sich damit einverstanden.

Schließen