Responsible AI Innovation Group
"Verantwortungsbewusste KI-Innovation erfordert die Auseinandersetzung mit den ethischen und gesellschaftlichen Auswirkungen der Technologie auf eine Art und Weise, die robust, menschenzentriert und mit den Realitäten der Gesellschaft, des Industriesektors und der Politik vereinbar ist. Wir kombinieren hochmoderne Forschung mit bewährtem Fachwissen über die technologische Umsetzung, die Steuerung neu entstehender Technologien und die Einbindung verschiedener Interessengruppen, um KI-Technologie für das Gemeinwohl zu fördern."
Expertise
- Verantwortungsvolle Forschung und Innovation
- Ethisch orientierte Gestaltung intelligenter und autonomer Systeme
- Steuerung von KI und Neurotechnologien
Die Gruppe "Verantwortungsvolle KI-Innovation" (RAI) befasst sich mit den technischen, ordnungspolitischen und ethischen Aspekten der KI-gestützten Innovation. Der Forschungsschwerpunkt der Gruppe besteht darin, technische und nicht-technische Ansätze zu identifizieren, die es Organisationen ermöglichen, KI-Technologien erfolgreich in Lösungen zu überführen, die dem wirtschaftlichen und gesellschaftlichen Wohl dienen. Unser besonderes Interesse gilt Anwendungen, die große Auswirkungen auf Menschen und Gesellschaft haben, wie Gesundheit, Neurowissenschaften, Mensch-Maschine-Interaktion und maschinelle Entscheidungsfindung. Unsere Arbeit befasst sich mit End-to-End-Governance-Faktoren, die sich auf die Innovation auswirken, von der organisatorischen Governance über regulatorische und Zertifizierungsanforderungen bis hin zu soziotechnischen Standards, vertrauenswürdiger KI und menschenzentrierter Technologie.
Da verantwortungsbewusste Innovation eine wirksame Koordinierung verschiedener Interessengruppen und Fachgebiete erfordert, arbeitet RAI mit einem umfangreichen Netzwerk von Kooperationen mit nationalen und internationalen Organisationen zusammen, darunter CLAIRE, ADRA, SATW IEEE Standards Organization, IEEE Brain, The Geneva Center for Security Policy, GESDA, OECD, und the Institute for Neuroethics.
Die Gruppe "Responsible AI Innovation" wurde im September 2023 gegründet, davor wurde dieser Forschungszweig innerhalb der MPC-Gruppe durchgeführt. Einige der Projekte, die vor diesem Datum begonnen wurden, sind:
Angebote
- Einblick: Keynotes, Trainings, public outreach, scientific diplomacy
- KI-Beratung: Workshops, Expertenunterstützung, Beratung, Technikfolgenabschätzung, ethische Folgenabschätzung
- Forschung und Entwicklung: kleine bis grosse Gemeinschaftsprojekte, Drittmittelforschung, studentische Projekte, praxiserprobte Prototypen
Team
Projekte
-
Brain Research International Data Governance & Exchange - Phase II
The goal of this project is to develop an International Data Governance Framework (IDGF) that can advance responsible international brain research and innovation. This will start with the identification of the technical, legal, ethical and organizational challenges to IDGF and the development of pathways to address ...
-
Apéro Digital Event Series
In the midst of societal digital transformation, post-pandemic economic recovery, and geopolitical tensions around the globe, the need for a carefully curated space for deliberation and networking presents unprecedented urgency. Against this backdrop, we propose the creation of an intellectually stimulating and ...
-
Brain Research International Data Governance & Exchange
The goal of this project is to develop an International Data Governance Framework (IDGF) that can advance responsible international brain research and innovation. This will start with the identification of the technical, legal, ethical and organizational challenges to IDGF and the development of pathways to address ...
-
AI4REALNET – AI for REAL-world NETwork operation
The scope of AI4REALNET covers the perspective of AI-based solutions addressing critical systems (electricity, railway, and air traffic management) modelled by networks that can be simulated, and are traditionally operated by humans, and where AI systems complement and augment human abilities. It has two main ...
-
Enabling Scientific Diplomacy: Preparation of the GESDA Neurotechnology Compass
The Geneva Science and Diplomacy Anticipator (GESDA) is developing the “Neurotechnology Compass” (the NeuroTech Compass – NTC). The NTC is aimed at equipping decision-makers with the necessary navigation tools to best support research in neuroscience and neurotechnology and their applications in society. By ...
-
certAInty – A Certification Scheme for AI systems
Certification of AI Systems by an accredited body increases trust, accelerates adoption and enables their use for safety-critical applications. We develop a Certification Scheme comprising specific requirements, criteria, measures, and technical methods for assessing Machine Learning enabled Systems. ...
Publikationen
- Seite 01
- Seite 02
- Nächste Seite
-
Weng, Joanna; Denzel, Philipp; Reif, Monika Ulrike; Schilling, Frank-Peter; Billeter, Yann; Frischknecht-Gruber, Carmen; Brunner, Stefan; Chavarriaga, Ricardo; Repetto, Marco; Iranfar, Arman,
2024.
Certification scheme for artificial intelligence based systems [Paper].
In:
34th European Safety and Reliability Conference (ESREL), Cracow, Poland, 23-27 June 2024.
ZHAW Zürcher Hochschule für Angewandte Wissenschaften.
Verfügbar unter: https://doi.org/10.21256/zhaw-30549
-
Billeter, Yann; Denzel, Philipp; Chavarriaga, Ricardo; Forster, Oliver; Schilling, Frank-Peter; Brunner, Stefan; Frischknecht-Gruber, Carmen; Reif, Monika Ulrike; Weng, Joanna,
2024.
MLOps as enabler of trustworthy AI [Paper].
In:
11th IEEE Swiss Conference on Data Science (SDS), Zurich, Switzerland, 30-31 May 2024.
ZHAW Zürcher Hochschule für Angewandte Wissenschaften.
Verfügbar unter: https://doi.org/10.21256/zhaw-30443
-
Denzel, Philipp; Brunner, Stefan; Billeter, Yann; Forster, Oliver; Frischknecht-Gruber, Carmen; Reif, Monika Ulrike; Schilling, Frank-Peter; Weng, Joanna; Chavarriaga, Ricardo; Amini, Amin; Repetto, Marco; Iranfar, Arman,
2024.
Towards the certification of AI-based systems [Paper].
In:
11th IEEE Swiss Conference on Data Science (SDS), Zurich, Switzerland, 30-31 May 2024.
ZHAW Zürcher Hochschule für Angewandte Wissenschaften.
Verfügbar unter: https://doi.org/10.21256/zhaw-30439
-
Iwane, Fumiaki; Porssut, Thibault; Blanke, Olaf; Chavarriaga, Ricardo; Millan, Jose Del R.; Herbelin, Bruno; Boulic, Ronan,
2024.
Journal of Neural Engineering.
21(2), S. 026016.
Verfügbar unter: https://doi.org/10.1088/1741-2552/ad2c02
-
Denzel, Philipp; Brunner, Stefan; Luley, Paul-Philipp; Frischknecht-Gruber, Carmen; Reif, Monika Ulrike; Schilling, Frank-Peter; Amini, Amin; Repetto, Marco; Iranfar, Arman; Weng, Joanna; Chavarriaga, Ricardo,
2023.
A framework for assessing and certifying explainability of health-oriented AI systems.
In:
Explainable AI in Medicine Workshop, Lugano, Switzerland, 2-3 November 2023.