Nachbesserung bei EU-Regulierung notwendig: Künstliche Intelligenz mit hohem Risiko für Menschen grundsätzlich auf Sicherheit prüfen
Berlin (ots)
+++ TÜV-Verband fordert Verbesserungen am Regulierungsentwurf für Künstliche Intelligenz der EU-Kommission +++ Klare Definition und Herleitung der Risiken von KI-Anwendungen notwendig +++ Whitepaper des TÜV AI Lab zur Risikobewertung +++
Der TÜV-Verband hat in einer aktuellen Stellungnahme konkrete Nachbesserungen am EU-Regulierungsentwurf für Künstliche Intelligenz gefordert. "Die Europäische Kommission leistet mit ihrem Regulierungsvorschlag Pionierarbeit, bleibt aber hinter dem eigenen Anspruch zurück, in Europa ein 'Ökosystem des Vertrauens' für Künstliche Intelligenz zu schaffen", sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. "Bei der Regulierung von Künstlicher Intelligenz müssen die Gesundheit der Menschen und der Schutz ihrer elementaren Grundrechte an erster Stelle stehen." Richtig sei der Ansatz, Anwendungen und Produkte mit Künstlicher Intelligenz in Abhängigkeit vom Risiko zu regulieren, das von ihnen ausgeht. So sollten beispielsweise für einen intelligenten Spam-Filter geringere Sicherheitsanforderungen gelten als für KI-Systeme, die Röntgenbilder auswerten, über die Vergabe von Krediten entscheiden oder für die Steuerung von Fahrzeugen eingesetzt werden. "Bei der Zuordnung von KI-Systemen in die vier vorgesehenen Risikoklassen von minimal bis unannehmbar und den damit verbundenen Anforderungen an die Sicherheit und deren Überprüfung sind Verbesserungen notwendig", sagt Bühler. Der TÜV-Verband fordert insbesondere, dass für alle KI-Anwendungen mit hohem Risiko verpflichtende unabhängige Drittprüfungen vorgesehen werden. Aber auch für andere KI-Anwendungen sollten bestimmte Mindestanforderungen gelten.
Die EU-Kommission hatte im April ihren Regulierungsentwurf vorgelegt, der jetzt zwischen den Mitgliedsstaaten und im Europäischen Parlament diskutiert wird. Ziel ist es, den weltweit ersten Rechtsrahmen für Künstliche Intelligenz zu schaffen. Aus Sicht des TÜV-Verbands sind die folgenden Nachbesserungen notwendig:
Risikoklassen nachvollziehbar herleiten: Im Vorschlag der EU-Kommission fehlt eine klare Definition und Herleitung der Risikoklassen. Insbesondere fehlt es an nachvollziehbaren Kriterien, von welchen KI-Systemen ein besonders hohes Risiko ("high-risk") ausgeht. Aus Sicht des TÜV-Verbands geht von KI-Systemen immer dann ein hohes Risiko aus, wenn sie Leib und Leben der Menschen oder deren elementare Grundrechte wie Privatsphäre oder Gleichbehandlung gefährden können.
Unabhängige Drittprüfung bei allen High-risk-KI-Systemen vorsehen: Alle als besonders risikoreich für den Menschen eingestuften Produkte und Anwendungen mit Künstlicher Intelligenz sollten von einer unabhängigen Stelle verpflichtend geprüft werden. Der risikobasierte Ansatz ist ein zentraler Eckpfeiler der europäischen Produktregulierung und sollte auch bei KI-Systemen konsequent umgesetzt werden.
Risikoadäquate Klassifizierung für High-risk-KI-Systeme einführen: Der Regulierungsentwurf sieht unabhängige Prüfungen hochriskanter KI-Systeme fast ausschließlich bei Produkten vor, für die bereits heute eine entsprechende Drittprüfung vorgesehen ist, zum Beispiel Medizinprodukte oder Aufzüge. Die Integration von Künstlicher Intelligenz kann aber in allen möglichen Produkten und Anwendungen dazu führen, dass sich deren Risiken signifikant erhöhen. Die Drittprüfungspflicht sollte der Gesetzgeber daher allein davon abhängig machen, welche Risiken tatsächlich von den jeweiligen KI-Systemen ausgehen können. Daher müssen auch die bereits regulierten Produktbereiche einer KI-risikospezifischen Neubewertung unterzogen werden.
Liste der High-risk-KI-Systeme ergänzen: Die Möglichkeit zur nachträglichen Erweiterung der Liste der Hochrisiko-KI-Systeme (Anhang III) seitens der EU-Kommission sollte nicht rein formal auf bestimmte Anwendungsbereiche beschränkt werden. Alleiniges Merkmal sollte sein, ob von dem KI-System signifikante Risiken für bedeutsame und grundrechtlich geschützte Rechtsgüter ausgehen. Sofern Leib und Leben oder zum Beispiel die Privatsphäre der Menschen gefährdet sind, muss das KI-System als high-risk klassifiziert werden.
Whitepaper zur Risikoeinstufung von KI-Systemen
Weiterhin hat das "TÜV AI Lab" ein Whitepaper mit einem "Vorschlag für eine Risikoklassifizierung von KI-Systemen" vorgelegt. "Bei Produkten und Anwendungen mit Künstlicher Intelligenz geht es neben Risiken für Leib und Leben auch darum, die Grundrechte von Menschen zu schützen und bestimmte ethische Prinzipien einzuhalten, die als gesellschaftlich erwünscht angesehen werden", sagt Dr. Dirk Schlesinger, Leiter des TÜV AI Labs. Das Whitepaper diskutiert daher systematische Ansätze, wie auch Grundrechte und ethische Prinzipien bei der Risikobewertung von KI-Systemen adäquat berücksichtigt werden können. Im TÜV AI Lab arbeiten KI-Experten aus den TÜV-Unternehmen gemeinsam an neuen Prüfmethoden für KI-Systeme und begleiten die rechtliche Regulierung der Technologie mit praxistauglichen Vorschlägen.
Die Stellungnahme des TÜV-Verbands zum Regulierungsvorschlag der EU-Kommission für Künstliche Intelligenz ist abrufbar unter: http://ots.de/ERUeJt
Das Whitepaper des TÜV AI Lab ist abrufbar unter: https://ots.de/g8yLoC
Über den TÜV-Verband: Der TÜV-Verband e. V. vertritt die politischen und fachlichen Interessen seiner Mitglieder gegenüber Politik, Verwaltung, Wirtschaft und Öffentlichkeit. Der Verband setzt sich für technische und digitale Sicherheit bei Produkten, Anlagen und Dienstleistungen durch unabhängige Prüfungen und qualifizierte Weiterbildung ein. Mit seinen Mitgliedern verfolgt der TÜV-Verband das Ziel, das hohe Niveau der technischen Sicherheit in unserer Gesellschaft zu wahren und Vertrauen für die digitale Welt zu schaffen.
Pressekontakt:
Maurice Shahd
Pressesprecher
Verband der TÜV e.V.
Friedrichstraße 136 | 10117 Berlin
T 030 760095-320, E presse@vdtuev.de
www.tuev-verband.de | www.twitter.com/tuevverband
Original content of: TÜV-Verband e. V., transmitted by news aktuell