reasonAI – Erklärbares Schlussfolgern in grossen Sprachmodellen (LLMs)
Beschreibung
Das Projekt zielt darauf ab, die Erklärbarkeit großer Sprachmodelle zu verbessern, indem systematische Interventionen, wie zum Beispiel Sparse Autoencoder, auf Open-Source-Reasoning-Modelle wie Qwen Deepseek-R1 angewendet werden.
Transparente, KI-basierte Schlussfolgerungen sind insbesondere in den Lebenswissenschaften wichtig, wo vertrauenswürdige Entscheidungen von foundational models essenziell sind.
Eckdaten
Projektleitung
Projektteam
Eric Gericke, Dr. Reto Gubelmann (Universität Zürich UZH)
Projektpartner
Universität Zürich UZH / Digital Society Initiative
Projektstatus
laufend, gestartet 11/2025
Institut/Zentrum
Institut für Computational Life Sciences (ICLS)
Drittmittelgeber
Digitalisierungsinitiative der Zürcher Hochschulen DIZH
Projektvolumen
43'000 CHF