reasonAI - Erklärbares schlussfolgern in grossen Sprachmodellen (LLMs) (reasonAI)
Beschreibung
Das Projekt zielt darauf ab, die Erklärbarkeit großer Sprachmodelle zu verbessern, indem systematische Interventionen, wie zum Beispiel Sparse Autoencoder, auf Open-Source-Reasoning-Modelle wie Qwen Deepseek-R1 angewendet werden.
Transparente, KI-basierte Schlussfolgerungen sind insbesondere in den Lebenswissenschaften wichtig, wo vertrauenswürdige Entscheidungen von foundational models essenziell sind.
Eckdaten
Projektleitung
Projektteam
Eric Gericke, Dr. Reto Gubelmann (Universitätsspital Zürich)
Projektpartner
Universitätsspital Zürich / Digital Society Initiative
Projektstatus
laufend, gestartet 11/2025
Institut/Zentrum
Institut für Computational Life Sciences (ICLS)
Drittmittelgeber
Digitalisierungsinitiative der Zürcher Hochschulen DIZH
Projektvolumen
43'000 CHF