Wer KI-basierte Anwendungen als Arbeitnehmer*in oder Verbraucher*in nutzt, soll sichergehen können, dass diese vertrauenswürdig und sicher sind. Wie das ermöglicht werden kann, prüft ein neues Verbundprojekt des KI-Observatoriums der Denkfabrik Digitale Arbeitsgesellschaft unter Federführung der Gesellschaft für Informatik (GI).
Wie müssen Test- und Auditierungsverfahren aussehen, die einen diskriminierungsfreien Einsatz von Künstlicher Intelligenz gewährleisten? Welche rechtlichen und technischen Voraussetzungen sind dafür notwendig? Und wie können Transparenz, Nachvollziehbarkeit, Fairness, Haftbarkeit, Zuverlässigkeit und Datenschutz gewährleistet werden? Der Erforschung dieser Fragen widmen sich ab Mai 2020 das Fraunhofer IESE, das Algorithm Accountability Lab an der TU Kaiserslautern, das Institut für Rechtsinformatik an der Universität des Saarlandes und die Stiftung Neue Verantwortung gemeinsam mit der Gesellschaft für Informatik. Die Verbundpartner*innen arbeiten im Rahmen des durch das KI-Observatorium der Denkfabrik initiierte Forschungsprojekts "Machbarkeit von Testing und Auditierung von KI-basierten Systemen" zusammen. Sie werden über eine Dauer von 20 Monaten untersuchen, wie Kontroll- bzw. Testverfahren und Zertifizierungen für KI-Systeme entwickelt und durchgeführt werden können.
Staatssekretär Björn Böhning verweist vor dem Hintergrund des Projektstarts auf eine wichtige Grundvoraussetzung des KI-Einsatzes:
Wir wissen doch, dass Vertrauen elementar ist - auch in den Betrieben, in den Unternehmen und in den unterschiedlichsten Arbeitszusammenhängen. Wenn wir die Vorzüge der KI-Verfahren langfristig nutzen und diese Technologie weiter ausbauen wollen, dann müssen wir uns auch über die Frage der Akzeptanz Gedanken machen. Den Beschäftigten sollte stets klar sein, welche KI-Lösungen sie wann, warum und wie verwenden. Sie sollten wissen, dass die KI-Systeme hohen Qualitätsanforderungen unterliegen.
Die Forschungsfragen der Verbundpartner*innen werden auf zwei konkrete Szenarien angewandt: Zum einen geht es um die Frage, wie Mensch und Maschine in der Industrieproduktion kooperieren, zum anderen darum, welche Rolle KI-Systeme im Personal- und Talentmanagement sowie im Recruiting spielen. Die von den Forscher*innen ausgewählten zwei Fallbeispiele zeigen, dass die Rahmenbedingungen der Nutzung von KI-Verfahren aktuell in sehr diversen Anwendungsbereichen Fragen aufwerfen. Sie verdeutlichen zudem, dass ein hohes Maß an gesellschaftlicher Verantwortung im Umgang mit KI unerlässlich ist.
Das multidisziplinäre Forscherteam wird die beiden Anwendungsszenarien in mehreren Arbeitsschritten aus unterschiedlichen - juristischen, technischen sowie politikwissenschaftlichen - Blickwinkeln analysieren. Nachdem geeignete Kontroll- und Testpraktiken identifiziert worden sind, werden Handlungsempfehlungen formuliert. Diese Hinweise sollen sich an die Stakeholder*innen sowie die Politik richten und eine Einschätzung darüber geben, wie eine angemessene Verankerung der definierten Standards in der nahen Zukunft aussehen könnte - etwa auf der institutionellen Ebene.