Welches Weltbild und Menschenbild stellen die grossen KI-Tools in konfliktbehafteten religiösen und sozialen Themen dar?
Projekt A1
Die künstliche Intelligenz (KI) und dabei insbesondere die grossen Sprachmodelle (Large Language Models, LLMs) führen zu einem tiefen Wandel in der Lehre, der Gesellschaft, der Politik und Religion. Unser Projekt untersucht die Werte und Haltungen, die inhärent in LLMs wie z. B. ChatGPT, Grok, DeepSeek_r1 und Llama enthalten sind. Diese Modelle bilden den Kern der generativen KI.
Unsere Forschung behandelt folgende Themen: Welche Werte, Haltungen und Annahmen, Tendenzen (Bias) und Stereotypen verbreiten und reflektieren welche LLMs? Wie können wir und andere Entscheidungsträger auf LLMs einwirken, sodass sie z. B. Hassrede und Einseitigkeit vermeiden und stattdessen balancierte Reflexionen wiedergeben? Welche Themen sind dabei am stärksten vom Kampf um die Deutungshoheit betroffen?
Wir werden Datensets zum Testen von LLMs (Benchmarks) erstellen, die es uns erlauben, systematisch von LLMs geäusserte Werte und Ansichten zu messen. Darüber hinaus forschen wir an Trainingsmethoden von LLMs, die es den Modellen erlauben, bei schwierigen Themen Ambivalenz, Abwägung von Vor- und Nachteilen und tolerante Ansichten hervorzubringen.
Unsere Forschungsfragen sind Teil der Ziele des Clusters A, insbesondere der Forschungsfragen a) und b) und der transversalen Frage des Bias und möglicher Diskriminierung in Modellen. Dazu suchen wir auch nach Wissensquellen und den zugrunde liegenden Ideengeschichten und verwenden Inhaltsanalysemethoden, von denen das gesamte Cluster profitiert.