Institut für ökologische Wirtschaftsforschung
Künstliche Intelligenz: Bewertungstool zeigt, wie KI-Systeme nachhaltiger werden können
Pressemitteilung von Institut für ökologische Wirtschaftsforschung (IÖW) und AlgorithmWatch
Künstliche Intelligenz: Bewertungstool zeigt, wie KI-Systeme nachhaltiger werden können
- AlgorithmWatch, IÖW und DAI-Labor der TU Berlin veröffentlichen Online-Bewertungstool für Organisationen, die Künstliche Intelligenz entwickeln oder einsetzen
- Fragebogen ermöglicht Organisationen und Unternehmen, die sozialen, ökologischen und ökonomischen Nachhaltigkeitsauswirkungen ihrer KI-Systeme selbst einzuschätzen, wie es aktuelle Regulierungsvorhaben (KI-Verordnung der EU) vorsehen
- Tool gibt Anregungen für Verbesserungen etwa zu den Themen inklusives und partizipatives Design, Ressourcenverbrauch, technische Verlässlichkeit und menschliche Aufsicht sowie Selbstbestimmung und Datenschutz
Berlin, 29. August 2023 – Mit der Einführung von ChatGPT hat die Künstliche Intelligenz (KI) einen Aufmerksamkeitsschub erhalten. Immer lauter wird auch vor den Risiken von KI gewarnt. Dabei geraten neben Risiken wie Diskriminierung oder Desinformation auch die wachsenden Ressourcenverbräuche für mehr Rechenleistung stärker ins Zentrum der Debatte. Für Organisationen ist es dabei nicht leicht, selbst einzuschätzen, welche Nachhaltigkeitseffekte ihre Systeme haben. Unterstützung bietet nun ein neues Onlinetool zur Bewertung der Nachhaltigkeit von KI. Organisationen, die KI selbst entwickeln oder einsetzen, können damit systematisch bewerten, welche Auswirkungen ihre KI-Systeme haben – sozial, ökologisch und ökonomisch. Das kostenlose Tool von AlgorithmWatch (AW), Institut für ökologische Wirtschaftsforschung (IÖW) und Distributed Artificial Intelligence Laboratory der Technischen Universität Berlin basiert auf einem Kriterien- und Indikatorenset für nachhaltige KI, das in dem Forschungsprojekt SustAIn mit Förderung durch das Bundesumweltministerium entwickelt wurde.
„KI-Systeme von personalisierten Nachrichtenfeeds oder Chatbots bis hin zu maschinell optimierten Industrieprozessen sind mit vielfältigen Risiken verbunden. So gibt es etwa Fragen zur technischen Verlässlichkeit und menschlichen Aufsicht oder zu wachsenden Strom- und Wasserverbräuchen für Rechenprozesse“, sagt Digitalexpertin Friederike Rohde vom IÖW. „Mit dem Bewertungsinstrument wollen wir das Bewusstsein für Nachhaltigkeitseffekte verbessern und aufzeigen, an welchen Stellen Unternehmen ihre Systeme maschinellen Lernens verbessern können.“
In elf Schritten Nachhaltigkeit von KI bewerten
Über den gesamten Lebenszyklus komplexer KI-Systeme treten Nachhaltigkeitseffekte auf – vom Datenmodell und Systemdesign, über die Modellentwicklung und -nutzung bis hin zur Entsorgung der Hardware. In elf Schritten können sich KI-Verantwortliche in Organisationen durch den anonymen Fragebogen zur Selbsteinschätzung klicken und Angaben machen zu Kriterien wie Selbstbestimmung, Datenschutz oder kultureller Sensibilität, aber auch zum Monitoring von Ressourcenverbräuchen oder Treibhausgasemissionen.
Mit dem Kriterien- und Indikatorenset des SustAIn-Projektes wurde ein umfassender Ansatz entwickelt, mit dem die sozialen, ökologischen und ökonomischen Auswirkungen von KI-Systemen erfasst und bewertet werden können. Die wachsende Debatte um KI und Nachhaltigkeit braucht eine differenzierte Betrachtung und fundierte Erkenntnisse zu den Nachhaltigkeitsfolgen entlang des Lebenszyklus, so die Forschenden. Mit dem Onlinetool steht allen Organisationen die Möglichkeit offen, ihre KI-Systeme zu bewerten.
Tool vereinfacht Vorbereitung auf europäische KI-Verordnung
„Organisationen, die das Bewertungstool nutzen, erhalten in einem Auswertungsdokument Anregungen, wie sie ihre KI-Systeme verbessern und Risiken verringern können“, sagt Anne Mollen, Projektmanagerin von AlgorithmWatch. „Anforderungen an das Tracking von Energieverbräuchen und andere ökologische Auswirkungen werden voraussichtlich in der europäischen KI-Verordnung verankert sein, deshalb müssen Organisationen, die KI entwickeln und einsetzten, jetzt die Kompetenzen und Instrumente dafür aufbauen.“ Die geplante Verordnung der EU-Kommission zur Regulierung von KI-Systemen könnte ab dem Jahr 2026 zur Anwendung kommen und soll verhindern, dass KI für umstrittene Methoden eingesetzt wird.
Das Onlinetool zur Bewertung der Nachhaltigkeit von KI ist Teil des Projekts „SustAIn – Nachhaltigkeitsindex für Künstliche Intelligenz“, das in der Förderinitiative KI-Leuchttürme vom Bundesumweltministerium gefördert wird.
~~~~~~~~~~~~~~~~~~~~~~~
Redaktionelle Informationen:
- Tool zur Bewertung der Nachhaltigkeit von KI
- Download der Studie: Nachhaltigkeitskriterien für Künstliche Intelligenz. Entwicklung eines Kriterien- und Indikatorensets für die Nachhaltigkeitsbewertung von KI-Systemen entlang des Lebenszyklus ( Download PDF)
Fachlicher Kontakt:
Friederike Rohde
Institut für ökologische Wirtschaftsforschung (IÖW)
Tel.: +49–30–884 594-57
Anne Mollen
AlgorithmWatch (AW)
Pressekontakt:
Richard Harnisch Institut für ökologische Wirtschaftsforschung (IÖW) Tel.: +49 30/884594-16 kommunikation@ioew.de
Melis Omalar AlgorithmWatch (AW) Tel.: +49–30–99 40 49 001 media@algorithmwatch.org
Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. Rund 70 Mitarbeiter*innen erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung. Das IÖW ist Mitglied im „Ecological Research Network“ (Ecornet), dem Netzwerk der außeruniversitären, gemeinnützigen Umwelt- und Nachhaltigkeitsforschungsinstitute in Deutschland.
www.ioew.de | Twitter (X) | Mastodon | Newsletter
AlgorithmWatch (AW) AlgorithmWatch ist eine gemeinnützige Organisation mit dem Ziel, Prozesse algorithmischer Entscheidungsfindung zu betrachten und einzuordnen, die eine gesellschaftliche Relevanz haben – die also entweder menschliche Entscheidungen vorhersagen oder vorbestimmen, oder Entscheidungen automatisiert treffen.
Wir streben eine Welt an, in der Technologie im Allgemeinen und algorithmische Systeme im Besonderen den Menschen zugutekommen. Die Systeme sollen Gesellschaften gerechter, demokratischer, inklusiver und nachhaltiger machen – sei es hinsichtlich zugeschriebener Herkunft und Gender, Rassifizierung, sexueller Orientierung, Alter, Klasse und Wohlstand oder Ressourcenverbrauch.
www.algorithmwatch.org | Twitter (X) | LinkedIn | Mastodon | Facebook | Instagram