Navigation auf uzh.ch
Die künstliche Intelligenz (KI), insbesondere die grossen Sprachmodelle (Large Language Models, LLMs) führen zu einem tiefen Wandel in der Lehre, der Gesellschaft, der Politik und Religion. Unser Projekt untersucht die Werte und Haltungen welche inherent in LLMs wie z.B. ChatGPT, Grok, DeepSeek_r1 und Llama, enthalten sind. Diese Modelle bilden den Kern der generativen KI.
Unsere Forschung behandelt folgende Themen: welche Werte, Haltungen und Annahmen, Tendenzen (bias) und Stereotypen verbreiten und reflektieren welche LLMs? Wie können wir und andere Entscheidungsträger auf LLMs einwirken, so dass sie z.B. Hassrede und Einseitigkeit vermeiden, und stattdessen balancierte Reflexionen wiedergeben? Welche Themen sind am stärksten vom Kampf um die Deutungshoheit betroffen?
Wir werden Datensets zum Testen von LLMs (Benchmarks) erstellen, die uns erlauben systematisch von LLMs geäusserte Werte und Ansichten zu messen. Darüber hinaus forschen wir an Trainingsmethoden von LLMs, die es den Modellen erlauben, bei schwierigen Themen Ambivalenz, Abwägung von Vor- und Nachteilen und tolerante Ansichten hervorzubringen.
Unsere Forschungsfragen sind Teil der Ziele des Clusters A, insbesondere der Forschungsfragen a. und b. und der transversalen Frage des bias und möglicher Diskriminierung in Modellen. Dazu suchen wir auch nach Wissensquellen und den zugrundeliegenden Ideengeschichten, und verwenden Inhaltsanalysemethoden, von denen das gesamte Cluster profitiert.