Heidelberg, 11. Juni 2024 – Zwei von drei deutschen Verbraucher:innen fühlen sich nicht wohl, wenn Unternehmen und Behörden mit künstlicher Intelligenz Entscheidungen treffen. Beispiele sind Medizin, Banken und Versicherungen sowie Sozialämter. Das ergab eine Befragung durch forsa im Auftrag des Softwareunternehmens SAS. Beim Thema vertrauenswürdige KI („Trustworthy AI“), wie sie nicht zuletzt die EU in ihrem bereits beschlossenen Regelwerk fordert, besteht also noch erheblicher Handlungsbedarf. Die Bürger:innen haben eine klare Vorstellung, wer beim Einsatz von KI Grenzen ziehen muss: Sie sehen die EU (62 Prozent), die Anbieter von KI-Lösungen (59 Prozent) und den Staat (61 Prozent) in der Pflicht. Die Anwender dagegen sieht weniger als die Hälfte in der Verantwortung: Lediglich 42 Prozent der Befragten meinen, dass sich Unternehmen oder Personen, die KI einsetzen, in erster Linie darum kümmern müssen.
„Die aktuelle Umfrage zeigt, dass beim Thema Trustworthy AI noch viel Überzeugungsarbeit geleistet werden muss“, erklärt Iwona Szylar, Managing Director von SAS Deutschland. „Möglicherweise ist die Schaffung eines vertrauensvollen Kontextes eine noch größere Herausforderung als die Anwendung der Technologie selbst. Deshalb richten wir unsere KI-Plattform konsequent darauf aus und engagieren uns aktiv für die rasche Umsetzung des EU AI Act.“ Zuletzt hat das Unternehmen eine Art „Nutri-Score“ für KI-Modelle vorgestellt, der deren Zuverlässigkeit darstellt.
circa 1.400 Zeichen