DIA-Studie macht auf Risiken bei der Anwendung Künstlicher Intelligenz in den sozialen Sicherungssystemen aufmerksam.
Die Anwendung von KI in der Sozialversicherung ist mit einer Reihe von Risiken verbunden, die gerade in einem solch sensiblen Bereich wie der Renten-, Kranken- oder Arbeitslosenversicherung besonders schwerwiegende Folgen haben können. Darauf macht die jüngste Studie des Deutschen Instituts für Altersvorsorge (DIA) aufmerksam. Sie ging der Frage nach, wie KI die Sozialversicherung verändert.
Eines dieser Risiken ist die Diskriminierung einzelner Personen oder Personengruppen, die in anderen Bereichen, zum Beispiel bei Recrutingsoftware, bereits auftrat. Eine solche Diskriminierung, so die Studie, beruht auf einem Datenproblem. Die Annahme, dass es unverfälschte, neutrale Rohdaten gibt, mit denen KI-Systeme gefüttert werden, sei schlicht falsch, stellt die Studienautorin Nora S. Stampfl fest.„Daten sind ohne Akte der Selektion und Interpretation nicht zu haben – von der Auswahl dessen, was überhaupt gemessen werden soll, bis hin zur Auswertung von Ergebnissen hat man es mit subjektiven Entscheidungen zu tun. Sind bereits die Daten mit einem Bias behaftet, kann die KI diesen nicht als solchen erkennen, vielmehr erlernt und reproduziert sie ihn.“
Risiko falscher Entscheidungen
KI, die diskriminierende Ergebnisse hervorbringt und damit Gerechtigkeitsprobleme aufwirft, ist gerade in Organisationen der sozialen Sicherung besonders kritisch zu beurteilen. Neben der Gefährdung der sozialen Gerechtigkeit besteht auch das Risiko von Sicherungslücken – etwa dort, wo Maßnahmen an KI-basierte Entscheidungen geknüpft sind, können falsch-negative oder falsch-positive Ergebnisse weitreichende Konsequenzen haben. Zum Beispiel bei der Beurteilung des Risikos der Langzeitarbeitslosigkeit, von der eine bestimmte Unterstützungsmaßnahme abhängt.
Eine zweite Herausforderung ist die Nachvollziehbarkeit und Rechtmäßigkeit von KI-Entscheidungen. Im Falle von Risikobewertungen, wie sie häufig Gegenstand von KI-Anwendungsfällen in der Sozialversicherung sind, geht es immer um die Berechnung von Wahrscheinlichkeiten. „Klarerweise ist es jedoch problematisch, wenn eine Sozialversicherungsorganisation auf der Grundlage von Wahrscheinlichkeiten und nicht auf der Grundlage von Tatsachen entscheidet bzw. handelt, denn das Gesetz knüpft Rechtsfolgen grundsätzlich nur an Gewissheiten“, warnt die DIA-Studie.
Intransparente Entscheidungsprozesse
Außerdem gibt es ein „Black-Box-Problem“. Auf welchem Wege sich neuronale Netze bilden, ist per definitionem nicht festgelegt und daher nicht nachvollziehbar. Weil Algorithmen ihre eigenen Regeln generieren, um aus den Inputdaten ein Ergebnis zu gewinnen, ist der Entscheidungsprozess intransparent. „Für das rechtsstaatliche Erfordernis der Rechtsgebundenheit wirft dieser Umstand ernsthafte Probleme auf“, gibt die Studienautorin zu bedenken.
Hinzu kommen die Verantwortung für und Erklärbarkeit von KI-Entscheidungen, die jederzeit gegeben sein müssen. „Das Wissen, wann und wie KI-basierte Entscheidungen zustande kommen, ist von enormer Bedeutung. Das sollte bei allen Erwägungen, KI in der Sozialversicherung einzusetzen, mit auf der Agenda stehen“, resümiert DIA-Sprecher Klaus Morgenstern.
Die komplette Studie „Wie verändert KI die Sozialversicherung?“ steht auf der Webseite des Deutschen Instituts für Altersvorsorge zum Download zur Verfügung. Darin sind auch eine Reihe von KI-Anwendungsfällen in der Sozialversicherung zu finden. Mehrere Experteninterviews liefern einen Einblick in die Praxis.