Eingabe löschen

Hauptnavigation

reasonAI - Erklärbares schlussfolgern in grossen Sprachmodellen (LLMs) (reasonAI)

Beschreibung

Das Projekt zielt darauf ab, die Erklärbarkeit großer Sprachmodelle zu verbessern, indem systematische Interventionen, wie zum Beispiel Sparse Autoencoder, auf Open-Source-Reasoning-Modelle wie Qwen Deepseek-R1 angewendet werden.

Transparente, KI-basierte Schlussfolgerungen sind insbesondere in den Lebenswissenschaften wichtig, wo vertrauenswürdige Entscheidungen von foundational models essenziell sind.

Eckdaten

Projektleitung

Projektteam

Eric Gericke, Dr. Reto Gubelmann (Universitätsspital Zürich)

Projektpartner

Universitätsspital Zürich / Digital Society Initiative

Projektstatus

laufend, gestartet 11/2025

Institut/Zentrum

Institut für Computational Life Sciences (ICLS)

Drittmittelgeber

Digitalisierungsinitiative der Zürcher Hochschulen DIZH

Projektvolumen

43'000 CHF