KI und verantwortungsbewusster Journalismus – Toolkit (deutsch)
bereitgestellt durch das Leverhulme Centre for the Future of Intelligence, University of Cambridge
Forschung
Erfahren Sie mehr über die Forschung hinter dem Toolkit.
Das Toolkit baut auf den Erkenntnissen eines kollaborativen Forschungsworkshops auf, der 2023 unter der Leitung von Dr. Tomasz Hollanek, Dr. Eleanor Drage und Dr. Dorian Peters an der University of Cambridge stattfand.
Das unmittelbare Ziel dieses Online-Workshops war es, Wissenschaftler:innen, die sich mit der Darstellung und der öffentlichen Wahrnehmung von künstlicher Intelligenz (KI) beschäftigen, Journalist:Innen, Medienmanager:innen, zivilgesellschaftliche Gruppen und Technolog:innenen zusammenzubringen, um darüber nachzudenken:
wie man Journalist:innenen, die sich normalerweise nicht auf Technologieberichterstattung konzentrieren, dabei unterstützen kann, verantwortungsvoller über KI zu berichten;
wie Technologiejournalist:innenen dabei unterstützt werden können, ihre Aufgabe zu erfüllen, Technologieunternehmen (und deren Produktionen) zur Verantwortung zu ziehen;
wie Medienschaffende effektiv über die sozialen, kulturellen und ethischen Auswirkungen von KI und anderen digitalen Technologien informiert werden können und welche Rolle Kommunikator:innenen dabei spielen, dass Technologien verantwortungsvoll genutzt und entwickelt werden.
Während das letztendliche Ziel des Workshops darin bestand, die Grundlage für eine neue Sammlung von gemeinsam kuratierten Ressourcen zu KI-Ethik und Ethik im Journalismus zu schaffen, die sich an Medienfachleute richtet, werden die Ergebnisse auch zu einer Publikation verarbeitet, die sich an ein akademisches Publikum richtet.
Neben den Erkenntnissen aus dem Workshop stützt sich das Toolkit auf die Forschung zu KI und Narrativen (im weitesten Sinne), einschließlich der unten aufgeführten Publikationen, und reagiert auf diese.
Ausgewählte Literatur:
-
In diesem Artikel wird festgestellt, dass Journalist:innen häufig auf bloße Vermutungen zurückgreifen, um die Rolle der KI bei der Nachrichtenproduktion zu verstehen. Dies beschränkt ihre Fähigkeit, ein kritisches Verständnis der Technologie zu entwickeln, KI effektiv zum beruflichen Nutzen einzusetzen und verantwortungsvoll darüber zu berichten, wie sich KI auf die Gesellschaft auswirkt. Es wird argumentiert, dass das "Verständlichkeitsproblem" der KI eher soziokulturell als rein technisch bedingt ist. Ferner wird vorgeschlagen, dass Strategien auf individueller, organisatorischer und gemeinschaftlicher Ebene entwickelt werden müssen, um die KI-Kompetenz von Journalisten zu fördern.
Vollständige Literaturangabe: Bronwyn Jones, Rhianne Jones & Ewa Luger (2022) AI ‘Everywhere and Nowhere’: Addressing the AI Intelligibility Problem in Public Service Journalism, Digital Journalism, 10:10, 1731-1755, https://doi.org/10.1080/21670811.2022.2145328
-
Dieser Artikel untersucht die vorherrschenden Narrative rund um KI im akademischen, politischen und allgemeinen öffentlichen Diskurs in den englischsprachigen westlichen Gesellschaften. Diese Narrative legen oft einen starken Schwerpunkt auf den Aspekt der Verkörperung und tendieren entweder zu utopischen oder dystopischen Extremen. Sie zeichnen sich vor allem durch einen Mangel an Vielfalt hinsichtlich der Schöpfer:innen, Protagonist:innen und Arten von KI aus. Die Autor:innen schlagen vor, dass statt des Versuchs, diese populären Auffassungen zu kontrollieren, Anstrengungen unternommen werden sollten, um den öffentlichen Dialog über KI zu erweitern, zu diversifizieren und zu fördern.
Vollständige Literaturangabe: Cave, S., Craig, C., Dihal, K., Dillon, S., Montgomery, J., Singler, B., & Taylor, L. (2018). Portrayals and perceptions of AI and why they matter. The Royal Society. https://doi.org/10.17863/CAM.34502
-
Dieser Artikel plädiert für den Einsatz kritischer KI-Kunst als Medium zur Förderung des Verständnisses der strukturellen Machtungleichheiten, die KI-Systemen zugrunde liegen. Außerdem wird in diesem Kontext für ein erfahrungsbasiertes Lernen plädiert, das zur aktiven Interpretation ermutigt, statt einer passiven Informationsaufnahme. Darüber hinaus betonen die Autor:innen die Bedeutung interdisziplinärer Diskussionen über Ästhetik, Ethik und die politische Ökonomie der KI und schlgen vor, dass diese Diskussionen in das Design von KI-Systemen einfließen sollten.
Vollständige Literaturangabe: Drew Hemment, Morgan Currie, SJ Bennett, Jake Elwes, Anna Ridler, Caroline Sinders, Matjaz Vidmar, Robin Hill, and Holly Warner. 2023. AI in the Public Eye: Investigating Public AI Literacy Through AI Art. In Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency (FAccT '23). Association for Computing Machinery, New York, NY, USA, 931–942. https://doi.org/10.1145/3593013.3594052
-
In diesem Artikel werden die Ergebnisse einer groß angelegten Untersuchung einflussreicher Filme der letzten hundert Jahre vorgestellt. Es wird gezeigt, dass nur 8 % der in den ausgewählten Filmen dargestellten KI-Expert:innen Frauen waren. Diese mangelnde Darstellung von weiblichen KI-Fachleuten in Filmen wird mit tieferliegenden Gründen in Verbindung gebracht, wie z. B. den anhaltend geschlechtsspezifischen Erzählmustern oder der Dominanz männlicher Filmregisseure in der Branche. Außerdemwird erläutert, wie sich die Darstellung von KI-Wissenschaftlerinnen in Filmen (bzw. deren Fehlen) auf die Entscheidungen von Wissenschaftlerinnen im wirklichen Leben auswirkt.
Vollständige Literaturangabe: Cave, S., Dihal, K., Drage, E., & McInerney, K. (2023). Who makes AI? Gender and portrayals of AI scientists in popular film, 1920–2020. Public Understanding of Science, 32(6), 745-760. https://doi.org/10.1177/09636625231153985
-
Der Artikel hebt die allgegenwärtige Präsenz des Weiß-Seins in verschiedenen Aspekten der (KI-)Technologie hervor, darunter humanoide Roboter, Chatbots, virtuelle Assistenten, Stockbilder und Mediendarstellungen von KI. Es wird dafür argumentiert, dass diese vorherrschende weiße, oft rassistische Perspektive in der KI bereits bestehende Vorurteile gegen nicht-weiße Produzent:innen und Nutzer:innen von KI verschärfen und indes die Aufmerksamkeit von wichtigen Bemühungen zum Abbau von Vorurteilen in KI-Systemen verdecken.
Vollständige Literaturangabe: Cave, S., Dihal, K. The Whiteness of AI. Philos. Technol. 33, 685–703 (2020). https://doi.org/10.1007/s13347-020-00415-6
-
In diesem Beitrag werden die Ergebnisse einer landesweiten, repräsentativen Umfrage vorgestellt, die durchgeführt wurde, um die Einstellung der Öffentlichkeit zu KI im Vereinigten Königreich zu untersuchen. Die Ergebnisse zeigen, dass eine beträchtliche Mehrheit der britischen Bevölkerung erhebliche Ängste vor den zukünftigen Auswirkungen der KI hat. Es ist jedoch ebenfalls bemerkenswert, dass ein beträchtlicher Teil der Befragten KI fälschlicherweise mit Robotik gleichsetzt. Diese Ergebnisse unterstreichen die Dringlichkeit von Maßnahmen zur Verbesserung der Darstellung und Kommunikation von KI in der Öffentlichkeit.
Vollständige Literaturangabe: Stephen Cave, Kate Coughlan, and Kanta Dihal. 2019. "Scary Robots": Examining Public Responses to AI. In Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society (AIES '19). Association for Computing Machinery, New York, NY, USA, 331–337. https://doi.org/10.1145/3306618.3314232