In der Sozialversicherung verspricht KI die Lösung brennender Probleme. Sind die Vorteile ohne Risiken zu haben? Gerade in einem solch sensiblen Bereich wie der sozialen Sicherung ist Vorsicht geboten und eine systematische Bewertung der Risiken und Nebenwirkungen einer derart wirkmächtigen Technologie unerlässlich.
Künstliche Intelligenz (KI) hat – bemerkt oder unbemerkt – den Weg ins Alltagsleben vieler Menschen gefunden: ob Internetsuchanfragen, Fitness-Tracker und Smartwatches, Sprachassistenten und Smart Homes oder die verschiedensten Apps, die unser Verhalten analysieren, um Empfehlungen auszusprechen, immer ist in solchen Fällen KI im Spiel.
Die rasante Ausbreitung der Technologie ist ohne Zweifel nicht zuletzt auf den Umstand zurückzuführen, dass KI-basierte Systeme eine Menge von Vorteilen in Aussicht stellen: Wiederkehrende und aufwändige Aufgaben können automatisiert, Prozesse effizienter abgewickelt und Fehlerquellen reduziert werden. Die Analyse immenser Datenmassen erlaubt die Erkennung von Mustern, um neue Einsichten zu gewinnen und darauf aufbauend fundierte Entscheidungen treffen zu können. In vielen Bereichen – vom Marketing über das Finanzwesen bis hin zum Gesundheitswesen – ermöglicht dies personalisierte Angebote und innovative Dienstleistungen.
Angesichts der sich zurzeit vollziehenden raschen Verbreitung von KI ist es nicht überraschend, dass die Technologie auch ins staatliche Verwaltungshandeln Einzug hält. So finden sich etwa im Bereich der Sozialversicherung bereits eine Reihe von produktiven bzw. sich in der Erprobung befindlichen Anwendungen, die KI für die vielfältigsten Einsatzzwecke nutzen. Unbestritten hat künstliche Intelligenz das Potenzial, die Abläufe im Bereich der Sozialversicherung schneller, effizienter und bürgerfreundlicher zu gestalten. Die grundsätzlichen Einsatzmöglichkeiten von KI in der sozialen Sicherung sowie eine Auswahl konkreter Anwendungsfälle stellt eine vom Deutschen Institut für Altersvorsorge (DIA) beauftragte Studie ausführlich dar.
KI als Allheilmittel?
Angesichts überbordender Bürokratie, langsamer und ineffizienter Verwaltungsprozesse, Personalmangels und hoher Verwaltungskosten erscheint KI als Allheilmittel und vielversprechender Weg zu einer Win-Win-Situation: mit weniger Ressourceneinsatz zu besseren Sozialleistungen. Sollte die Technologie also ihre Versprechungen einlösen, so wäre dies von unschätzbarem Wert nicht nur für den einzelnen Bürger, sondern für die Gesellschaft insgesamt.
Die potentiellen Vorteile von KI sind in der Tat derart groß, dass es kaum verantwortbar erscheint, sich diese nicht zunutze zu machen. Zugleich aber hat man es bei KI mit einer Technologie zu tun, deren Wirkungen weitreichend und teils auch unvorhersehbar und irreversibel sein können. Die Erfahrung zeigt, dass im Hinblick auf neue Technologien nur allzu häufig der Wunsch der Vater des Gedankens ist. Die Aussicht auf Effizienz, Komfort und sonstige Vorteile durch Technikeinsatz lässt die positiven Aspekte der neuen Technologie in den Vordergrund rücken, während oftmals deren mögliche Gefahren und Risiken ausgeblendet oder unterschätzt werden.
Zudem führen der gesellschaftliche Fokus auf Fortschritt und Innovation sowie der Glaube an Technik als genereller Problemlöser dazu, dass Risiken als notwendiges Übel bewusst in Kauf genommen werden. Gerade angesichts einer derart wirkmächtigen Technologie wie KI in einem so sensiblen Bereich wie der sozialen Sicherung ist darauf zu pochen, Risiken nicht aus dem Blick zu verlieren und sich mit Nebenwirkungen intensiv auseinanderzusetzen.
Black-Box-Effekt führt zu Problemen
Worin bestehen die Risiken eines KI-Einsatzes in der Sozialversicherung? Als eines der Schlüsselprobleme kann der Black-Box-Effekt von KI identifiziert werden. Zwar erlaubt die Technologie die Durchführung komplexer Analysen auf Basis massenhafter Daten innerhalb kürzester Zeit, doch lassen sich die Ergebnisse aufgrund der spezifischen Wirkungsweise von selbstlernenden Systemen kaum nachvollziehen bzw. interpretieren. Entscheidungsprozesse sind somit intransparent, was nicht nur ein Problem hinsichtlich der Nachvollziehbarkeit aufwirft, sondern ebenso im Hinblick auf das rechtsstaatliche Erfordernis der Rechtsgebundenheit problematisch ist. Zudem ist zu berücksichtigen, dass Verwaltungshandeln in komplexen Angelegenheiten in vielen Fällen die Nutzung menschlichen Urteilsvermögens und des gesetzlich eingeräumten Ermessensspielraums voraussetzt. Die Automatisierung von Entscheidungsverfahren wirft daher stets die Frage auf, ob die konkrete Situation von Versicherten angemessen beurteilt wurde und Entscheidungen mithin Gerechtigkeitsanforderungen entsprechen.
Wer trägt die Verantwortung?
Die Black-Box-Problematik ist immer auch mit der Verantwortungsfrage verknüpft: Weil KI-generierte Ergebnisse nicht immer umfassend vorhersehbar und kontrollierbar sind, ist im Falle von Fehlern und Problemen häufig keine verantwortliche Person auszumachen. Moderne Rechts- und Verwaltungssysteme zeichnen sich jedoch wesentlich dadurch aus, dass sie die Nachvollziehbarkeit, Transparenz und damit die Möglichkeit der Anfechtbarkeit menschlicher Entscheidungen gewährleisten. Die Gefahr einer Aushöhlung von Verantwortung und menschlicher Autorschaft ist im Übrigen auch in solchen Fällen nicht geringzuschätzen, in denen Entscheidungen durch KI bloß vorbereitet werden. Als Automation Bias wird jener psychologische Effekt bezeichnet, dass Menschen häufig algorithmisch erzeugten Ergebnissen und automatisierten Entscheidungsprozeduren größeres Vertrauen entgegenbringen als menschlichen Entscheidungen. In der Folge wird KI-Entscheidungen – zumindest unbewusst – blindlings gefolgt, anstatt sich selbst mit der Situation kritisch auseinanderzusetzen und eigene Schlüsse zu ziehen.
Diskriminierung droht
In vielen Fällen wurde KI-Systemen bereits nachgewiesen, dass ihre Ergebnisse diskriminierend sind. Zurückzuführen ist dies auf die schlichte Tatsache, dass Daten niemals neutral sind und bereits der Auswahl der Daten, mit denen KI-Systeme gefüttert werden, subjektive Entscheidungen zugrundeliegen. Das im IT-Bereich gut bekannte Prinzip „Garbage In, Garbage Out“ (GIGO, „ Müll rein, Müll raus“) gilt auch für die Entwicklung von KI-Modellen, weshalb die Qualität KI-generierter Ergebnisse von der Qualität der Trainingsdaten abhängt. Gerade im Bereich der sozialen Sicherung ist es hochgradig problematisch, wenn unvollständige, ungenaue oder strukturelle Ungleichbehandlungen reflektierende Daten zu diskriminierenden Ergebnissen führen. Eine Gefährdung der sozialen Gerechtigkeit sowie Sicherungslücken Einzelner können die Folge sein.
Schließlich ist noch angesichts der großen Mengen an sensiblen Daten, mit denen im Bereich der sozialen Sicherung hantiert wird, auf Herausforderungen hinsichtlich Privatheit und Überwachung aufmerksam zu machen. Vor diesem Hintergrund drängt sich insbesondere die Frage nach Einhaltung von Zweckbindungs- und Erforderlichkeitsprinzip auf: Werden die Daten nur für den Zweck verarbeitet, für den sie erhoben wurden, und werden sie bloß verarbeitet, soweit die Verarbeitung für den jeweiligen Zweck erforderlich ist? Zudem kann mit der Erfassung von Daten und der damit einhergehenden Möglichkeit der Prognoseerstellung und Mustererkennung die Privatsphäre und Autonomie von Personen beeinträchtigt werden. Selbst in Fällen, in denen Auswertungen keine Rückschlüsse auf individuelle Personen zulassen, kann sich bereits die bloße Sorge vor der Möglichkeit der personenbezogenen Auswertung negativ auf Autonomie und Entfaltungsfreiheit von Menschen auswirken.
Schwierige Risikobewertung
Diese kleine Auswahl möglicher Gefahren und Risiken, die im KI-Einsatz in der Sozialversicherung schlummern, zeigt schon, dass eine Risikobewertung gar nicht so einfach ist. Die Komplexität von KI-Systemen erschwert eine kritische Auseinandersetzung, weil Risiken oftmals viel schwerer erkennbar und verständlich sind und somit leicht durch die in der Kommunikation zumeist überbetonten Vorteile überstrahlt werden. Zudem können KI-Systeme die Basis für Entscheidungen legen, die fundamental und in ihren Konsequenzen nicht immer vorhersehbar sind. Unzureichendes Wissen, Wunschdenken und gesellschaftlicher Fortschrittsglaube tun ihr Übriges, ein gezieltes Abwägen von Chancen und Risiken zu erschweren.
Angesichts dieses Dilemmas kann nicht oft genug an Hans Jonas‘ Verantwortungsethik erinnert werden, die der Philosoph 1979 in seinem Werk „Das Prinzip Verantwortung“ speziell im Hinblick auf die Herausforderungen der modernen Technikentwicklung erarbeitete. Zwar steckte die KI-Entwicklung zu dieser Zeit noch in ihren Kinderschuhen, doch ist die Technologie mit ihren weitreichenden, potentiell gravierenden Auswirkungen geradezu prädestiniert, anhand Jonas‘ Empfehlungen befragt zu werden. Seine Ethik unterscheidet sich insofern von den klassischen Ansätzen, als sie auch die Fernwirkungen des Handelns mit in den Blick nimmt und somit auch das Wohl des gesamten Planeten und dasjenige künftiger Generationen mitberücksichtigt.
Mit Bezug auf KI würde Jonas‘ ethischer Ansatz daher verlangen, dass Verantwortung für mögliche Fernwirkungen übernommen wird, auch wenn diese erst in ferner Zukunft auftreten. Gewissermaßen als praktische Handreichung gibt Jonas zudem die Empfehlung, bei Unsicherheit über die Folgen neuer Technologien eher das Worst-Case-Szenario als Maßstab zu nehmen, um katastrophale Risiken für die Menschheit zu vermeiden. Wie ist also vor diesem Hintergrund KI mit ihren potenziell irreversiblen Folgen für das menschliche Zusammenleben zu bewerten?
Ethische Leitplanken erforderlich
Vor diesem Hintergrund wirft der KI-Einsatz in der sozialen Sicherung zuallererst die Frage auf, ob die Verantwortlichen über hinreichend Wissen verfügen, um die Auswirkungen angemessen zu beurteilen und zu verhindern, dass Schnellschüsse zu künftigen Schäden führen. Wer wenig Wissen über eine Technologie und deren Risiken hat, erkennt diese oft gar nicht und schätzt die Vorteile überproportional hoch ein. Zudem neigen Menschen mit geringer Kompetenz und Erfahrung in einem bestimmten Bereich dazu, die eigenen Kenntnisse und Fähigkeiten zu überschätzen – ein als Dunning-Kruger-Effekt bekanntes Phänomen, welches gerade in einem so neuen, sich rasend schnell verbreitenden Bereich wie der KI nicht zu vernachlässigen ist. Zusätzlich ist danach zu fragen, wer die Verantwortung trägt, wenn autonom agierende KI-Systeme nicht erwünschte Folgen nach sich ziehen. Im Bereich des staatlichen Verwaltungshandelns muss insbesondere auch darüber nachgedacht werden, wie verhindert wird, dass KI-Entscheidungen gesellschaftliche Werte wie Menschenwürde und Gerechtigkeit unterlaufen.
Unbestritten hat KI das Potenzial, große Vorteile für die soziale Sicherung zu realisieren. Festzuhalten ist aber auch, dass von Anfang an eine ausgewogene und systematische Überprüfung und Abwägung aller Chancen und Risiken stattzufinden hat. Die möglichen negativen Folgen der KI-Nutzung für Einzelne und das gesellschaftliche Zusammenleben als Ganzes sind zu schwerwiegend, als dass abgewartet werden könnte, bis Probleme auftreten oder die Schattenseiten der Technologie im Verlauf der Nutzung ins Bewusstsein rücken. Neben einer generellen Umsicht und vorausschauenden Verantwortung wird die zentrale Aufgabe eines KI-Einsatzes im Bereich der sozialen Sicherung in der Entwicklung und Etablierung ethischer Leitplanken bestehen, um sicherzustellen, dass die Technologie zum gesellschaftlich Besten genutzt wird.