Eingabe löschen

Hauptnavigation

reasonAI – Erklärbares Schlussfolgern in grossen Sprachmodellen (LLMs)

Beschreibung

Das Projekt zielt darauf ab, die Erklärbarkeit großer Sprachmodelle zu verbessern, indem systematische Interventionen, wie zum Beispiel Sparse Autoencoder, auf Open-Source-Reasoning-Modelle wie Qwen Deepseek-R1 angewendet werden.

Transparente, KI-basierte Schlussfolgerungen sind insbesondere in den Lebenswissenschaften wichtig, wo vertrauenswürdige Entscheidungen von foundational models essenziell sind.

Eckdaten

Projektleitung

Projektteam

Eric Gericke, Dr. Reto Gubelmann (Universität Zürich UZH)

Projektpartner

Universität Zürich UZH / Digital Society Initiative

Projektstatus

laufend, gestartet 11/2025

Institut/Zentrum

Institut für Computational Life Sciences (ICLS)

Drittmittelgeber

Digitalisierungsinitiative der Zürcher Hochschulen DIZH

Projektvolumen

43'000 CHF