Alle Storys
Folgen
Keine Story von Capgemini mehr verpassen.

Capgemini

Ethik bei Künstlicher Intelligenz entscheidend für Vertrauen der Öffentlichkeit in Unternehmen

Berlin (ots)

   - Verbraucher fordern neue Regulierungen für KI und sind bereit,
     bei positiven KI-Erfahrungen mehr zu kaufen 
   - Führungskräfte aus neun von zehn Unternehmen haben eine ethisch
     fragliche KI-Nutzung beobachtet
   - Unternehmensführung, Datenwissenschaftlicher und HR/Marketing
     bei der Umsetzung von ethischen KI-Strategien gefragt

Ethische Grundsätze gewinnen für das Vertrauen der Öffentlichkeit in die Künstliche Intelligenz (KI) eine immer bedeutendere Rolle. Das zeigt die neue Studie des Capgemini Research Institute "Why adressing ethical Questions in AI will benefit Organizations" für die 1.580 Führungskräfte von Großunternehmen aus zehn Ländern sowie über 4.400 Verbraucher aus sechs Ländern - jeweils einschließlich Deutschland - befragt wurden. Verbraucher, Mitarbeiter und Bürger belohnen demnach ethisches Verhalten, sanktionieren aber auch zweifelhafte Praktiken. Als ethisch empfundene KI-Interaktionen steigern Kaufbereitschaft und Loyalität der Verbraucher gegenüber Unternehmen.

Einhaltung ethischer Grundsätze beeinflusst das Verhalten der Verbraucher

62 Prozent der befragten Verbraucher vertrauen Unternehmen mehr, wenn KI-basierte Interaktionen als ethisch wahrgenommen werden. Positive Erfahrungen würden 61 Prozent mit Freunden und Familie teilen, 59 Prozent würden eine höhere Loyalität gegenüber dem Unternehmen empfinden. Jeweils 55 Prozent geben an, sie würden in dem Fall mehr Produkte kaufen sowie gute Bewertungen in den sozialen Medien geben. Ethische Probleme bei der KI-Interaktion, etwa fehlende Zustimmung zur Datennutzung oder intransparente und verzerrte Ergebnisse, haben negative Auswirkungen: 41 Prozent der Konsumenten würden sich beschweren, 36 Prozent eine Erklärung verlangen. Ein Drittel würde den Kontakt zum Unternehmen abbrechen.

Unternehmen sehen ethische Fragestellungen bei ihren KI-Systemen

In allen befragten Ländern glauben Führungskräfte aus knapp neun von zehn Unternehmen, dass die Nutzung von KI innerhalb der letzten zwei bis drei Jahre ethische Fragen aufgeworfen habe. Zu den Vorkommnissen zählen im Gesundheitswesen etwa das Erheben persönlicher Patientendaten ohne vorherige Zustimmung sowie ein übermäßiges Vertrauen in nicht transparente, maschinell getroffene Entscheidungen bei Banken und Versicherungen. 53 Prozent der Führungskräfte finden es wichtig sicherzustellen, dass KI-Systeme ethisch und transparent sind. 41 Prozent geben an, dass sie den Einsatz von ethisch problematischen KI-Systemen wahrscheinlich beenden würden oder dies bereits getan haben. Als wichtigste Gründe für ethische Defizite von KI-Systemen nennen Führungskräfte in Deutschland und weiteren Ländern den Druck, KI-Systeme schnell einzuführen sowie Ressourcenmangel und fehlende Berücksichtigung ethischer Standards bei der Einführung von KI-Systemen. Für Datenwissenschaftlicher sind fehlende Richtlinien und Daten die größten Hindernisse, der zeitliche Druck kommt an vierter Stelle.

Verbraucher erwarten neue Regulierungen

Mit 47 Prozent (Deutschland (DE): 42 Prozent) gibt knapp die Hälfte der Befragten an, mindestens zwei Mal innerhalb der letzten zwei bis drei Jahre mit ethisch unzureichenden KI-Anwendungen konfrontiert worden zu sein. Wenn Leistungen KI-unterstützt sind, befürwortet die Mehrheit mehr Transparenz (74 Prozent) und möchte wissen, ob eine KI sie fair und diskriminierungsfrei behandelt (72 Prozent). Drei Viertel der Befragten, beziehungsweise 70 Prozent in Deutschland, sind der Ansicht, dass es weitere Regulierungen für Unternehmen zum KI-Einsatz geben sollte.

"Die Öffentlichkeit ist zunehmend offen für KI-basierte Services, ist sich aber auch der möglichen ethischen Auswirkungen bewusst. Unternehmen stehen an einem Scheideweg: Es wird deutlich, dass es nicht allein um Vorschriften und Compliance geht, sondern ethische Grundsätze vorteilhaft für das eigene Geschäft sein können", so Fabian Schladitz, Leiter des Center of Excellence Künstliche Intelligenz bei Capgemini in Deutschland. "Unsere Studie zeigt zudem, dass Führungskräfte in Deutschland - neben Großbritannien - bereits heute mehr Vertrauen in ihre KI-Systeme haben als ihre europäischen Kollegen. Zugleich sind die Verbraucher hierzulande prinzipiell genauso offen für den KI-Einsatz wie anderswo. Hierauf aufbauend sollten Unternehmen die passenden Strukturen und einen Wertekanon schaffen, um ethische Aspekte angemessen zu berücksichtigen und darauf achten, dass dies auch während der Entwicklung von KI-Systemen geschieht. Wird KI anschließend eingesetzt, ist es mindestens genauso wichtig, alle Beteiligten über die Interaktionen mit KI umfassend zu informieren und sie zu befähigen, bewusst mit ihr umzugehen."

Organisationen müssen auf eine ethische KI-Strategie fokussieren

Um die Bedenken zu adressieren und vom Vertrauensbonus eines ethischen KI-Einsatzes zu profitieren, empfiehlt Capgemini einen dreiteiligen Strategieansatz für eine ethische KI, der alle beteiligten Interessengruppen berücksichtigt.

1) Managementebene, weitere Führungskräfte und für Vertrauen und 
Ethik zuständige Personen: Etablierung einer Strategie und eines 
Verhaltenskodex in Bezug auf KI als grundlegende Basis; Entwicklung 
von Richtlinien für einen akzeptable KI-Einsatz durch Mitarbeiter und
Anwendungen; Verlässliche KI-Systeme und die Umsetzung von 
Organisationsstrukturen, welche ethische Prinzipien berücksichtigen; 
Aufbau von Teams mit hoher Diversität, um eine umfassende 
Sensibilität gegenüber ethischen Fragestellungen sicherzustellen.

2) Personalabteilung, Marketing, Kommunikation, Kundenservice und 
weitere Teams mit Kontakt zu Kunden und Mitarbeitern: Gewährleistung,
dass KI-Anwendungen nach ethischen Prinzipien eingesetzt werden; 
fortlaufende Aufklärung und Informierung beteiligter Personen, um 
Vertrauen in KI-Systeme zu schaffen und ihnen mehr 
Entscheidungsfähigkeit und Kontrolle zu ermöglichen. 
Vertrauensbildung, indem durch KI hervorgerufene Probleme aktiv 
intern und extern bekanntgemacht werden.

3) Leiter sowie IT-, KI- und Datenteams: KI-Systeme transparent und 
verständlich umsetzen; Sicherstellung eines umfassenden 
Datenmanagements, um das Risiko tendenziöser, Ergebnisse 
verfälschender Daten zu reduzieren; Nutzung technischer Werkzeuge, um
Ethik in der KI zu verankern.

Luciano Floridi, Director of Digital Ethics Labs, Oxford Internet Institute dazu: "Die klassische Art Vertrauen zu gewinnen, lässt sich auch bei KI-Interaktionen in drei Worten zusammenfassen: Transparenz, Verantwortlichkeit und Befähigung: Transparenz, damit Menschen sehen, was man tut; Verantwortlichkeit, weil man die Verantwortung übernimmt für das, was man tut; und Befähigung, indem man die Verantwortung dafür übernimmt, dass es anderen möglich ist zu sagen, ob man das richtige getan hat oder etwas nicht gut war."

Vollständiger Report und weitere Infos: http://bit.ly/2FRAusE

Untersuchungsmethodik

Für die Studie wurden 1.580 Führungskräfte von Großunternehmen mit über einer Milliarde US-Dollar Jahresumsatz aus zehn Ländern (Deutschland, China, Frankreich, Indien, Italien, Niederlande, Spanien, Schweden, Großbritannien und USA) befragt. Diese setzen sich aus drei Gruppen zusammen: General Management/Strategie/Corporate, IT/KI/Data Science/Analytics und HR/ Marketing. Zudem wurden 4.400 Verbraucher aus sechs Ländern (USA, China, Großbritannien, Frankreich, Deutschland, Niederlande) befragt. Jeder der Befragten hatte in der Vergangenheit bestimmte Formen einer KI-Interaktion, so dass sie Fragen zu Ethik, Vertrauen und Transparenz bezüglich KI beantworten konnten. Das Capgemini Research Institute führte weiterhin umfassende Interviews mit mehr als 20 Wissenschaftlern, Branchenexperten und Unternehmern durch.

Über Capgemini

Capgemini ist einer der weltweit führenden Anbieter von Management- und IT-Beratung, Technologie-Services und Digitaler Transformation. Als ein Wegbereiter für Innovation unterstützt das Unternehmen seine Kunden bei deren komplexen Herausforderungen rund um Cloud, Digital und Plattformen. Auf dem Fundament von 50 Jahren Erfahrung und umfangreichem branchenspezifischen Know-how hilft Capgemini seinen Kunden, ihre Geschäftsziele zu erreichen. Hierfür steht ein komplettes Leistungsspektrum von der Strategieentwicklung bis zum Geschäftsbetrieb zur Verfügung. Capgemini ist überzeugt davon, dass der geschäftliche Wert von Technologie durch Menschen entsteht. Die Gruppe ist ein multikulturelles Unternehmen mit über 200.000 Mitarbeitern in mehr als 40 Ländern, das 2018 einen Umsatz von 13,2 Milliarden Euro erwirtschaftet hat.

Mehr unter www.capgemini.com/de. People matter, results count.

Über das Capgemini Research Institute

Das Capgemini Research Institute ist Capgeminis hauseigener Think-Tank in digitalen Angelegenheiten. Das Institut veröffentlicht Forschungsarbeiten über den Einfluss digitaler Technologien auf große Unternehmen. Das Team greift dabei auf das weltweite Netzwerk von Capgemini-Experten zurück und arbeitet eng mit akademischen und technologischen Partnern zusammen. Das Institut hat Forschungszentren in Großbritannien, Indien und den USA.

Fußnoten

1. Die "Ethik von KI" bezieht sich darauf, inwieweit Zielsetzung, Gestaltung und Verwendung von Künstlicher Intelligenz nach ethischen Grundsätzen erfolgen. Die Bewertung erfolgt anhand folgender Dimensionen:

- Transparenz: Funktionsweise ist klar, konsistent und 
nachvollziehbar 
- Überprüfbarkeit: Ermöglicht Dritten, den Dateninput zu bewerten und
sicherzustellen, dass Ergebnisse vertrauenswürdig sind 
- Erklärbarkeit: Fähigkeit, die Funktionsweise in verständlicher 
Sprache zu erklären 
- Interpretierbarkeit: Möglichkeit zu erkennen, 
dass Ergebnisse bei verändertem Dateninput variieren können 
- Unvoreingenommenheit ("Bias") und Fairness: Eliminiert oder 
reduziert Diskriminierung bestimmter Nutzer durch 
vorurteilsbehaftete, tendenziöse Datensätze, die zu voreingenommenen 
Ergebnissen führen, die sich durch Algorithmen verfestigenden können

2. Hierzu zählen unter anderem: Die Verarbeitung personenbezogener Daten ohne vorherige Einwilligung; intransparente und nicht zurückzuverfolgende Entscheidungsfindungen mittels Machine Learning; diskriminierende Entscheidungen, Preisgestaltungen und Angebote aufgrund tendenziöser, vorurteilsbehafteter Daten und/oder fehlerhaften Algorithmen; Verwendung erhobener Daten für weitere Zwecke als ursprünglich intendiert; etc.

Pressekontakt Capgemini:


Daniel Hardt
Tel.: +49 89 38338-2873
E-Mail: daniel.hardt@capgemini.com
www.twitter.com/CapgeminiDE

Original-Content von: Capgemini, übermittelt durch news aktuell