KI-Studie: Verbraucher:innen fordern Prüfzeichen für Künstliche Intelligenz
Berlin (ots)
Sorge in der Bevölkerung vor Hackerangriffen, Manipulation oder fehlerhaften KI-Anwendungen
Breite Mehrheit wünscht sich umfassende Regulierung der Technologie
TÜV-Verband fordert unabhängige Prüfungen für alle KI-Anwendungen mit hohem Risiko
Automatisierte Fahrzeuge, neue Methoden für die Krebserkennung, Gesichtserkennung im öffentlichen Raum oder Software-Unterstützung bei der Personalauswahl: Künstliche Intelligenz (KI) kommt zunehmend in sicherheitskritischen Bereichen zum Einsatz oder gefährdet bei ihrer Nutzung bürgerliche Grundrechte. Vier von fünf Bundesbürger:innen (80 Prozent) fordern daher ein von unabhängigen Stellen vergebenes Prüfzeichen für Künstliche Intelligenz, um das Vertrauen in die Technologie zu stärken. 79 Prozent wünschen sich, dass Produkte und Anwendungen mit Künstlicher Intelligenz grundsätzlich gekennzeichnet werden. Und 71 Prozent der Befragten fordern eine umfassende gesetzliche Regulierung der Technologie. Das sind Kernergebnisse einer repräsentativen Studie im Auftrag des TÜV-Verbands, für die 1.000 Personen ab 16 Jahren befragt wurden. "Immer dann, wenn Produkte oder Anwendungen mit Künstlicher Intelligenz die Gesundheit von Menschen oder ihre elementaren Grundrechte wie Privatsphäre oder Gleichbehandlung gefährden, brauchen wir eine gesetzliche Regelung", sagte Dr. Dirk Stenkamp, Präsident des TÜV-Verbands, bei der Vorstellung der Studienergebnisse. "Die Gesetzgebung für eine europäische KI-Verordnung muss jetzt zügig vorangetrieben und Verbesserungen eingearbeitet werden." So sollten KI-Anwendungen mit hohem Risiko grundsätzlich von unabhängigen Stellen geprüft werden, um deren Sicherheit gewährleisten zu können.
Laut den Ergebnissen der Umfrage kennen 95 Prozent der Befragten den Begriff Künstliche Intelligenz. Immerhin fast jede:r zweite (48 Prozent) kann die wichtigsten Eigenschaften dieser komplexen Technologie gut oder sehr gut erklären. Im Vergleich zur vorangegangenen Studie des TÜV-Verbands im Jahr 2019 ist das ein Anstieg um 13 Prozentpunkte. Weitere 42 Prozent könnten eine grobe Erklärung abgeben (minus 5 Punkte) und nur 11 Prozent wissen nur sehr wenig oder gar nichts über KI (minus 6 Punkte). "Das Wissen um Künstliche Intelligenz verbessert sich mit der zunehmenden Verbreitung der Technologie", sagte Stenkamp. Parallel dazu verbessere sich auch die Einstellung der Bürger:innen. 51 Prozent der Befragten empfinden etwas Positives, wenn sie an KI denken, 5 Punkte mehr als vor zwei Jahren. Dagegen empfinden nur noch 14 Prozent etwas Negatives, vor zwei Jahren lag dieser Wert mit 28 Prozent noch doppelt so hoch. 35 Prozent sind neutral eingestellt (plus 14 Punkte). Dabei gleichen sich die Einstellungen von Frauen und Männern an. 45 Prozent der befragten Frauen empfinden etwas Positives, nach 35 Prozent im Jahr 2019. Der Anteil der positiv eingestellten Männer ist mit 56 Prozent konstant geblieben (2019: 57 Prozent). Und nur noch 15 Prozent der Frauen empfinden etwas Negatives, nach 35 Prozent 2019. Damit liegen sie fast gleichauf mit den Männern, unter denen 13 Prozent etwas Negatives empfinden (2019: 21 Prozent).
Sehr positiv bewertet eine breite Mehrheit der Verbraucher:innen die Weiterentwicklung von Künstlicher Intelligenz in der Industrie (73 Prozent), in der Forschung (69 Prozent), im Gesundheitsbereich (66 Prozent) und in der Bildung (62 Prozent). Vier von fünf aller Befragten (80 Prozent) erhoffen sich durch den Einsatz Künstlicher Intelligenz auch persönlich Vorteile oder Erleichterungen in ihrem Alltag: 53 Prozent rechnen mit Zeitersparnissen, 48 Prozent mit Energieeinsparungen und 43 Prozent mit Entlastungen von Routinetätigkeiten. Gleichzeitig haben die Befragten viele Sorgen und Vorbehalte im Zusammenhang mit dem Einsatz von KI. An erster Stelle steht mit einem Anteil von 66 Prozent die Angst vor Hackerangriffen, die mit Hilfe von KI automatisiert oder personalisiert werden. Es folgen die Sorge vor Massenüberwachung (62 Prozent) oder einem Missbrauch persönlicher Daten (61 Prozent). Bei 61 Prozent besteht die Sorge, dass KI genutzt wird, um Menschen zu manipulieren. Die gezielte Verbreitung von Fakenews und Filterblaseneffekte in sozialen Netzwerken sind dafür Beispiele. "Die Befürchtung, dass KI-Systeme bei sicherheitskritischen Anwendungen Fehler macht, ist mit 60 Prozent ebenfalls weit verbreitet", sagte Stenkamp. Fehlerhafte KI-Systeme könnten beispielsweise beim automatisierten Fahren verheerende Folgen haben. Weitere Befürchtungen betreffen Arbeitsplatzverluste durch den Einsatz von KI-Systemen (57 Prozent) und die Diskriminierung von Menschen, beispielsweise bei der Personalauswahl oder bei der automatisierten Vergabe von Krediten (41 Prozent). Sehr deutlich wird die Skepsis beim autonomen Fahren. Erst 39 Prozent würden in einem vollautomatisierten Fahrzeug mitfahren. 33 Prozent lehnen das ab und weitere 29 Prozent sind unsicher und antworten mit "weiß nicht".
Um die Sicherheit von KI-Anwendungen zu gewährleisten, wünschen sich 81 Prozent der Befragten unabhängige Prüfungen, bevor die Produkte auf den Markt kommen. 79 Prozent fordern Sicherheitsprüfungen von KI-Produkten auch dann, wenn diese bereits auf dem Markt sind. "Vor allem bei sicherheitskritischen KI-Anwendungen sind unabhängige Prüfungen im laufenden Betrieb notwendig, zum Beispiel von Fahrzeugen oder Geräten der Medizintechnik", betonte Stenkamp. Auch KI-gestützte Produkte könnten mit der Zeit "verschleißen" bzw. in ihrer Wirkung beeinträchtigt sein, beispielsweise Assistenzsysteme in Autos. Darüber hinaus verändern KI-Produkte ihre Eigenschaften, wenn mit einem Software-Update neue Funktionen aufgespielt werden. Dann sei eine Neubewertung der Sicherheit notwendig.
Regulierungsentwurf der EU-Kommission nachbessern
In dem im April vorgelegten Regulierungsentwurf der EU-Kommission sind für viele weniger sicherheitskritische KI-Anwendungen keine externen Prüfungen vorgesehen. "Ein risikobasierter Ansatz bei der KI-Regulierung ist sinnvoll", sagte Stenkamp. Ein E-Mail-Spam-Filter müsse anders behandelt werden als ein Fahrzeug oder ein Medizinprodukt. Allerdings besteht hier aus Sicht des TÜV-Verbands noch Nachbesserungsbedarf. "Bisher fehlt eine klare Herleitung und Definition der Risikoklassen, was zu rechtlichen Unsicherheiten führen kann", sagte Stenkamp. Die Zuordnung zu den vier Risikoklassen sollte nicht durch einen festen Technologiekatalog geregelt werden. Stattdessen sollten Schutzziele wie Gefahr für Leib und Leben und die Einschränkung von Grundrechten die Maxime für jede KI-Anwendung sein. Stenkamp: "KI-Systeme, von denen ein hohes Risiko ausgeht, sollten grundsätzlich von unabhängigen Dritten geprüft werden."
Nach Ansicht des TÜV-Verbands sollte die EU-Kommission bei der KI-Gesetzgebung aus den Erfahrungen der Datenschutz-Grundverordnung lernen. Deren Anwendung erweist sich in der Praxis häufig als zu kompliziert. "Wir dürfen nicht nur eine KI-Regulierung entwickeln, sondern müssen gleichzeitig deren praktische Umsetzung vorantreiben", sagte Stenkamp. "Für die Prüfung und Zertifizierung von KI-Anwendungen sind neue Methoden und Standards notwendig." Als ein geeignetes Instrument für diesen Prozess schlägt der TÜV-Verband die Einrichtung interdisziplinärer "AI Quality & Testing Hubs" vor. Hier könnten KI-Anbieter, Unternehmen, Forschungseinrichtungen und Prüforganisationen gemeinsam an Normen und Standards für Künstliche Intelligenz arbeiten und neue Prüfverfahren entwickeln. Dafür sei eine politische Förderung der neuen Bundesregierung notwendig.
Der vollständige Studienbericht sowie eine Präsentation mit den wichtigsten Ergebnissen sind abrufbar unter: www.tuev-verband.de/pressemitteilungen/ki-verbraucherstudie-2021
Am 27. Oktober 2021 findet online die "TÜV AI Conference" statt, bei der über den Weg zu einer sicheren und vertrauenswürdigen KI diskutiert wird. Redner:innen sind unter anderem Klaus Müller, Präsident des vzbv, Prof. Kristina Sinemus, Digitalministerin in Hessen, BSI-Präsident Arne Schönbohm, Prof. Christian Kastrop, Staatssekretär im Bundesjustizministerium, oder die Gründerin und Autorin Verena Pausder. Journalist:innen können sich anmelden unter: https://www.tuev-verband.de/events/konferenzen/ai-conference/tuevr-ai-conference-2021
Methodik-Hinweis: Grundlage der Studienergebnisse ist eine repräsentative Umfrage des Marktforschungsunternehmens Statista im Auftrag des TÜV-Verbands unter 1.000 Personen ab 16 Jahren in Deutschland. Die Befragung ist repräsentativ für die Gesamtbevölkerung. Sie wurde im August 2021 durchgeführt.
Über den TÜV-Verband: Der TÜV-Verband e. V. vertritt die politischen und fachlichen Interessen seiner Mitglieder gegenüber Politik, Verwaltung, Wirtschaft und Öffentlichkeit. Der Verband setzt sich für technische und digitale Sicherheit bei Produkten, Anlagen und Dienstleistungen durch unabhängige Prüfungen und qualifizierte Weiterbildung ein. Mit seinen Mitgliedern verfolgt der TÜV-Verband das Ziel, das hohe Niveau der technischen Sicherheit in unserer Gesellschaft zu wahren und Vertrauen für die digitale Welt zu schaffen.
Pressekontakt:
Maurice Shahd
Pressesprecher
TÜV-Verband e. V.
Friedrichstraße 136 | 10117 Berlin
T 030 760095-320, E presse@tuev-verband.de
www.tuev-verband.de | www.twitter.com/tuevverband
Original-Content von: TÜV-Verband e. V., übermittelt durch news aktuell