KI und verantwortungsbewusster Journalismus – Toolkit (deutsch)
bereitgestellt durch das Leverhulme Centre for the Future of Intelligence, University of Cambridge
übersetzt von Leila Mahmutovic und Jerôme Schickschneit, Center for Science and Thought, Universität Bonn
Alina Constantin / Better Images of AI / Handmade A.I / CC-BY 4.0
Empowerment von Journalist:innen, Kommunikator:innen und Forschenden auf dem Weg zu einer verantwortungsvollen Berichterstattung über die Risiken und Potentiale von küntlicher Intelligenz
Lesen Sie mehr über die Forschung hinter dem Toolkit.
Über das Toolkit
Das Toolkit richtet sich an ein breites Spektrum von Akteur:innen, die das Bild von KI in der Öffentlichkeit mitbeeinflussen. Es soll Journalist:innen, PR-Fachleute und Forschende dabei unterstützen, die Risiken und Potentiale von KI-Systemen verantwortungsbewusst zu kommunizieren: Wie kann vermieden werden, dass sich problematische KI-Narrative verbreiten? Wie können wir uns für Inklusivität und Vielfalt in Diskussionen über KI einsetzen und eine kritische, multiperspektivische KI-Kompetenz fördern?
Diese Sammlung von Resourcen ist das Ergebnis eines Forschungsworkshops, der 2023 unter der Leitung von Dr. Tomasz Hollanek, Dr. Eleanor Drage und Dr. Dorian Peters an der Universität Cambridge stattgefunden hat. Über die bereits vorhandenen Leitlinien und Empfehlungen für KI-Journalismus hinausgehend betonten die Workshop-Teilnehmer:innen den Bedarf an einem benutzerfreundlichen Verzeichnis von entsprechenden Werkzeugen und Ressourcen, welches dabei helfen soll, das Verständnis der technologischen und soziotechnischen Dimensionen von KI zu vertiefen. Außerdem solle mit einem solchen Verzeichnis eine Grundlage geschaffen werden, um die Kontaktaufnahme mit Expert:innen für KI und KI-Ethik zu erleichern und Informationen über Supportnetzwerke und Finanzierungsmöglichkeiten bereitzustellen.
Auf diese Bedürfnisse antwortet unser Toolkit. Da sich das Feld ständig erweitert und neue Fragen und Erkenntnisse dazukommen, muss es sich um ein dynamisches Verzeichnis handeln, dass sich kontinuierlich weiterentwickelt und regelmäßig aktualisiert wird. Alle Beiträge und Erfahrungsberichte orientieren sich an den Communities, die durch das Toolkit unterstützt werden sollen.
Die bereitgestellten Ressourcen sind in vier verschiedene Kategorien unterteilt: INFORMATION, ETHIK, STIMMEN und STRUKTUREN (siehe unten).
Das Problem:
Die Forschung hat gezeigt, dass mediale Darstellungen von KI...
sexistische u. rassistische Stereotype über die Erfinder:innen, Nutzer:innen und Profitierenden von KI-System reproduzieren und aufrechterhalten
fälschlicherweise suggerieren, dass KI mit Robotik gleichzusetzen sei
von den Risiken und Folgen ablenken, die mit den realen Anwendungen der Technologien, die bereits unser Leben beeinflussen, verbunden sind
Ziele des Toolkits:
-
von der Industrie geprägten Narrative über KI in Frage zu stellen. Dazu werden ihnen Ressourcen zu den soziotechnischen Realitäten jenseits des KI-Hypes bereitgestellt, der Kontakt zu Expert:innen für kritische, gerechtigkeitsfördernde Ansätze zu KI ermöglicht und die Unterstützung durch die Gemeinschaft erleichtert.
-
die Risiken und Potentiale von KI, trotz ihrer unterschiedlichen Hintergründe, effektiv und verantwortungsvoll zu kommunizieren. Dazu wird ein Spektrum an Ressourcen angeboten, das fachliche Inhalte zu grundlegenden bis hin zu spezialisierten Themen enthält, in Schlüsselkonzepte der KI, KI-Ethik und Berufsethik einführt und auf KI-orientierte Berichterstattung zugeschnitten ist
-
für den potenziellen Schaden durch KI und die Notwendigkeit einer verantwortungsvollen Berichterstattung über Risiken und Vorteile von KI
-
kritische Kommunikationsmaterialien über KI zu entwickeln und bereitzustellen
-
verantwortungsvoll mit Journalist:innen zusammenzuarbeiten, um eine korrekte Darstellung ihrer Produkte und Dienstleistungen in den Medien zu gewährleisten
-
ihre Forschungsergebnisse effektiv zu kommunizieren und dabei die breite öffentliche Wahrnehmung von KI zu berücksichtigen
Werkzeuge / Resourcen
Eine Sammlung von Ressourcen, die in die wichtigsten Themen der KI-Forschung einführen und Falschinformationen und Mythen entlarven.
Eine Sammlung von Leitlinien zur ethischen Kommunikation über KI in der Öffentlichkeit.
Eine Datenbank mit KI-Expert:innen, einschließlich Vertretenden von Minderheitengruppen, die Kommunikator:innen dabei helfen, die Vielfalt von Perspektiven auf KI zu erkennen und zu nutzen.
Eine Liste von Institutionen und professionellen Netzwerken, die unabhängigen, investigativen Tech-Journalismus durch spezielle Finanzierungsprogramme oder kostenlose Rechtsberatung unterstützen.
Positive Beispiele für die Berichterstattung über AI
-
The AI Colonialism series
von Karen Hao, MIT Technology Review
-
OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic
von Billy Perrigo, TIME
-
What does GPT-3 “know” about me?
von Melissa Heikkilä, MIT Technology Review
-
Lost in AI translation: growing reliance on language apps jeopardizes some asylum applications
von Johana Bhuiyan, The Guardian
Danksagung
Das Toolkit wurde von Dr. Tomasz Hollanek und Abdullah Safir im Rahmen des Forschungsprogramms "Desirable Digitalisation: AI for Just and Sustainable Futures" entwickelt, das von der Stiftung Mercator finanziert wird.
Das Toolkit basiert auf den Erkenntnissen eines gemeinsamen Forschungsworkshops, der von Tomasz Hollanek, Eleanor Drage und Dorian Peters veranstaltet wurde. Wir danken den Teilnehmenden des Workshops für ihre Beiträge: Varsha Bansal, Stephen Cave, Florian Christ, Kanta Dihal, Tania Duarte, Abhishek Gupta, Karen Hao, Melissa Heikkilä, Justin Hendrix, Irving Huerta, Bronwyn Jones, Boyoung Lim, Kerry McInerney, Karen Naundorf, Jonnie Penn, Christiane Schäfer, Hilke Schellmann, Lam Thuy Vo, Marina Walker Guevara, Chloe Xiang, und Miri Zilka.
Wenn Sie Fragen oder Anregungen haben, senden Sie bitte eine E-Mail an: desirableai@lcfi.cam.ac.uk