Medizin, Bankgeschäfte, Unterstützungsleistungen: Vertrauen in künstliche Intelligenz bleibt begrenzt – Ausnahme: Betrugserkennung
Heidelberg, 15. Mai 2024 – Zwei von drei deutschen Verbraucher:innen fühlen sich nicht wohl, wenn Unternehmen und Behörden mit künstlicher Intelligenz Entscheidungen treffen. Das ergab eine Befragung durch forsa im Auftrag des Softwareunternehmens SAS. Beim Thema vertrauenswürdige KI („Trustworthy AI“), wie sie nicht zuletzt die EU in ihrem bereits beschlossenen Regelwerk fordert, besteht also noch erheblicher Handlungsbedarf. So sind 65 Prozent der Befragten skeptisch, wenn KI über staatliche Unterstützungsleistungen entscheidet. Noch größer ist das Unbehagen im Finanzkontext: Ganze 69 Prozent fühlen sich mit KI-gestützten Entscheidungen von Banken und Versicherungen unwohl, etwa bei der Kreditvergabe oder Tarifberechnung. Auch medizinischen Diagnosen und Behandlungsempfehlungen, die mithilfe von KI entstehen, traut die Mehrzahl der über 1.000 Befragten eher nicht (61 Prozent). Die Ausnahme bildet der Bereich Betrugserkennung und -bekämpfung: 67 Prozent der deutschen Verbraucher:innen finden es gut, wenn KI dabei hilft, Betrügern etwa bei Onlinegeschäften oder bei Zahlungsvorgängen auf die Spur zu kommen.
„Die aktuelle Umfrage zeigt, dass beim Thema Trustworthy AI noch viel Überzeugungsarbeit geleistet werden muss“, erklärt Iwona Szylar, Managing Director von SAS Deutschland. „Möglicherweise ist die Schaffung eines vertrauensvollen Kontextes eine noch größere Herausforderung als die Anwendung der Technologie selbst. Deshalb richten wir unsere KI-Plattform konsequent darauf aus und engagieren uns aktiv für die rasche Umsetzung des EU AI Act.“
Belegt wird das durch zahlreiche weitere Initiativen von SAS: So hat das Unternehmen jüngst eine Art „Nutri-Score“ für KI-Modelle initiiert, der deren Zuverlässigkeit berechnet.
circa 1.700 Zeichen