Ob autonomes Fahren oder KI Lösungen im Umfeld der Industrie 4.0. Rein technisch sind viele Anforderungen umsetzbar. Doch wie sollen sich Systeme entscheiden, wenn es um Fairness oder es sich um ethische und gesetzliche Anforderungen handelt?
Wissenschaftler des Max-Planck-Instituts für Intelligente Systeme in Tübingen untersuchen Daten auf ihren kausalen Zusammenhang. Erst wenn selbstlernende Maschinen nachweislich unsere ethischen und gesetzlichen Anforderungen erfüllen, wird sie die Gesellschaft als fair akzeptieren.
Während sich gesellschaftliche Normen immer mehr, vor allem im Zeitalter der Digitalisierung verändern, entsteht die Notwendigkeit, dass selbstlernende Maschinen, die dem Menschen zuarbeiten, fair handeln. Nur wenn diese künstliche Intelligenz Fairness ebenso interpretiert und umsetzt wie Menschen, werden ihre Entscheidungen Akzeptanz finden. Entscheidungen durch selbstlernende Algorithmen, denen möglicherweise rassistische oder sexistische Merkmale unterliegen würden, sind in der Gesellschaft nicht akzeptabel. Gleichzeitig rückt mit zunehmender Tragweite des Einsatzes von KI – künstlicher Intelligenz – die Transparenz im Bereich maschinelles Lernen zunehmend in den Fokus.
KI Forschung am Beispiel Bankkredit
Bereits aufgrund der Postleitzahl, die ein potentieller Kreditnehmer angeben muss, könnte ein Lernalgorithmus diskriminierend gegen eine einzelne Person oder eine bestimmte demographische Gruppe wirken. Beispielsweise könnte eine Bank keine Kredite an Menschen mit einer bestimmten Postleitzahl mehr vergeben, weil der selbstlernende Computer zu dem Schluss kommt, dass in diesem Stadtteil die Ausfallquote höher ist als anderswo.
Kilbertus und seine Kollegen suchen hier nach einer fairen Lösung: sie suchen den kausalen Zusammenhang, warum gerade in diesem besagten Stadtteil das Risiko hoch ist, dass Kreditnehmer ihre Ratenzahlungen nicht mehr bedienen können. „Es kann sein, dass in dieser Postleitzahl die Ausfallquote einfach höher ist, was die Bank dann als Argument nehmen würde, sicherheitshalber gar keine Kredite an Menschen, die dort leben, zu vergeben. Falls aber gleichzeitig in dieser Region vorwiegend eine bestimmte Minderheit wohnt, dann findet hier implizit eine Diskriminierung statt, da diese Minderheit nun systematisch benachteiligt wird.“ Ein starker Appell an alle, zu hinterfragen, wie Daten zustande kommen. Denn wie sollen wir einer künstlichen Intelligenz unseren Alltag regeln lassen, wenn ihre Entscheidungen Verzerrungen enthalten können?
KI Problem per Definition
Das Problem ist die formale Definition von „fairen“ Entscheidungen: Fairness ist subjektiv, es gibt keine Definition, die für alle Kulturkreise gleichermaßen gültig ist. Daher besteht Kilbertus Algorithmus, eine mathematische Formel mit vielen Variablen, nur auf dem Papier. Sie ist, wie die meisten Forschungsarbeiten an den Max-Planck-Instituten, Grundlagenforschung. „Es ist bisher nur Theorie. Wir haben keine Experimente gemacht – die Idee ist allein konzeptioneller Natur. Kein Unternehmen dieser Welt verwendet einen fairen Algorithmus, so wie er uns vorschwebt. Das Problem ist, diese kausalen Schlussfolgerungen zu ziehen. Das würde sehr viel Zeit und Kosten verursachen,“ sagt Kilbertus. „Was wir wissen ist, dass die gängige Praxis nicht ausreicht, um unsere Intuition von Fairness vollständig wiederzugeben.“
Die Grundlagenforschung von Kilbertus und seinen Kollegen soll dazu dienen, ein Umdenken in einer Gesellschaft anzuregen, in der maschinelles Lernen und KI – künstliche Intelligenz künftig immer mehr Entscheidungen beeinflussen werden.
Hintergrund Max-Planck-Institut für Intelligente Systeme
Täglich wird über KI – Künstliche Intelligenz berichtet: Autos fahren immer autonomer, erste Drohnen transportieren Pakete, Roboter werden uns zunehmend im Alltag helfen und medizinische Eingriffe werden künftig teilweise von winzigen Robotern im Körper erledigt. Mit der Digitalisierung der Industrie und der Entwicklung cyber-physischer Systeme werden intelligente Systeme immer mehr ein Teil unserer Welt. Die Fähigkeit, Systeme für autonome Robotik und intelligente Software zu entwickeln, ist eine künftige Schlüsseltechnologie für Industrie, Transport und Logistik als auch für unsere Gesellschaft als Ganzes.
Intelligente Systeme funktionieren autonom in komplexen, sich verändernden Umgebungen und passen sich diesen an. Intelligente Systeme in der Natur – inklusive der Mensch – haben durch Interaktion, Evolution und Lernen ausgeklügelte Fähigkeiten entwickelt, erfolgreich in der Welt zu bestehen. Jedoch ist unser Verständnis dieser Phänomene noch sehr beschränkt, und die Synthese von intelligenten, autonomen und lernenden Systeme bleibt eine grosse wissenschaftliche Herausforderung. Die Wissenschaftler am Max-Planck-Institut für Intelligente Systeme erforschen die fundamentalen Fragen von Wahrnehmung, Handeln und Lernen, die intelligenten Systemen zugrunde liegen. Sie erzielen ihre Ergebnisse durch theoretische und algorithmische Arbeiten als auch an physikalischen Systemen aller Größenordnungen und wollen dieses Verständnis nutzen, um zukünftige künstliche intelligente Systeme zu entwickeln.
(Quelle: Max-Planck-Institut für Intelligente Systeme)
Schreibe einen Kommentar