Eingabe löschen

Kopfbereich

Schnellnavigation

Hauptnavigation

Forschungsschwerpunkte des CAI

«Computer-Vision-Methoden erkennen Krebszellen oder helfen Blinden, sich in der Stadt zurechtzufinden; Chatbots beantworten Kundenfragen rund um die Uhr; und selbstfahrende Autos werden unsere Verkehrssysteme radikal verändern. Unsere Forschung strebt nach Spitzenleistungen durch praktische Anwendbarkeit.»

Prof. Dr. Mark Clieliebak

Anwendungsgebiete

Am CAI befassen wir uns mit der Methodik des maschinellen Lernens und des Deep Learning. Unserer Erfahrung nach lassen sich Durchbrüche in einem Anwendungsfall in der Regel gut auf andere Bereiche übertragen, da die aktuelle KI-Methodik weitgehend branchenunabhängig ist. Beispielsweise setzen wir unsere Kompetenz auf folgenden Gebieten ein:

Medizin und Gesundheit, Industrie 4.0, Robotik, vorausschauende Instandhaltung (Predictive Maintenance), automatisierte Qualitätskontrolle, Dokumentanalyse, andere Data-Science-Anwendungsfälle in Branchen wie Fertigung, Finanz und Versicherung, Detailhandel, Verkehr, digitale Landwirtschaft (Digital Farming), Wetterprognosen, Erdbeobachtung und vieles mehr.

Autonomous Learning Systems

Themen:

  • Reinforcement Learning
  • Multi-Agenten-Systeme
  • Embodied KI

Auf dem Forschungsgebiet der autonomen Lernsysteme werden die Konzipierung und die Entwicklung intelligenter Systeme erforscht – insbesondere solcher Systeme, die eine Feedbackschleife zwischen Wahrnehmung (Verarbeitung eingehender Sensordaten) und Handlung (Ausführung von Handlungen, die einen Einfluss auf die wahrzunehmende Umgebung haben) aufweisen (Wahrnehmungs-Handlungs-Schleife). Eine wichtige Methodik hierfür ist das Deep Learning oder Reinforcement Learning, das es den Agenten ermöglicht, nach dem Trial-and-Error-Prinzip zu lernen. Dieses belohnungsbasierte Lernen wird in Zukunft völlig neue Anwendungsgebiete erschliessen, die über das übliche Lernen mittels Paaren von Input und von Hand erstelltem Output hinausgehen – und zwar in fast jeder Branche, beispielsweise in der Industrie und auf dem Gebiet der Neurotechnologien. Die Verknüpfung solcher Systeme mit Hardware, die über geeignete Sensoren und Aktoren verfügt, schafft zusätzliches Trainingspotenzial für die Algorithmen autonomer Systeme durch physische Interaktion (Verkörperung, z. B. in einer Robotikvorrichtung).

Projektbeispiel

FarmAI – Künstliche Intelligenz für den Farming Simulator

Für die weltweit erfolgreiche Videospiel-Serie «Farming Simulator» von GIANTS Software GmbH wird mittels künstlicher Intelligenz (KI) ein neuer, langfristig unterhaltender, einfach erweiterbarer Spielmodus ermöglicht. In diesem Projekt werden Reinforcement-Learning-Algorithmen eingesetzt, um durch das Simulieren von Spielen geeignete Handlungsstrategien ausfindig zu machen.

Ausgewählte Publikation

Combining Reinforcement Learning with Supervised Deep Learning for Neural Active Scene Understanding

Während das Sehen bei Lebewesen ein aktiver Prozess ist, in dem Bilderfassung und ‑klassifikation ineinandergreifen, um die Wahrnehmung schrittweise zu verfeinern, baut ein Grossteil der heutigen Computer Vision auf dem unterlegenen Paradigma der episodischen Klassifikation von i.i.d. Stichproben auf. Wir streben ein verbessertes Szenenverständnis für Roboter an, indem wir die sequenzielle Art des Sehens über die Zeit berücksichtigen. Hier präsentieren wir einen kombinierten Multitask-Ansatz aus überwachtem Lernen und Reinforcement Learning, um Fragen zu verschiedenen Aspekten einer Szene zu beantworten, z. B. zur Beziehung zwischen Gegenständen, ihrer Häufigkeit oder ihrer Position in Relation zur Kamera.

Computer Vision, Perception and Cognition

Themen:

  • Mustererkennung
  • Maschinelle Wahrnehmung
  • Neuromorphic Engineering

Das Gebiet von Computer Vision, Wahrnehmung und Kognition ist auf die Erzeugung eines semantischen Verständnisses aus hochdimensionalen Daten-Inputs ausgerichtet. Dies geschieht zuerst durch das Erlernen und dann durch das Finden essenzieller Muster, indem maschinelle Lernmethoden und insbesondere tiefe neuronale Netze (Deep Neural Networks) in datengetriebener Weise zum Einsatz kommen (Mustererkennung). Als Input dienen beispielsweise Bilder, Videos oder andere Multimediasignale, aber auch mehrdimensionale Datenserien aus allen technischen und nicht-technischen Bereichen. Methodisch kommen Klassifikation, semantische Segmentierung und Objekterkennung zum Einsatz bei der Analyse der Inputs, oder entsprechende generative Modelle für deren Synthese (z. B. unter Verwendung sogenannter Generative Adversarial Networks). Zur Weiterentwicklung der Methodik werden zum Beispiel biologisch inspirierte Ideen aus den Neurowissenschaften verwendet (Neuromorphic Engineering).

Projektbeispiel

RealScore – Scannen von Musiknoten auf Papier für ein digitales Notenpult

Wir haben einen Musiknoten-Scan-Service geschaffen, der für qualitativ hochstehende Inputs funktioniert. Um dieses Geschäft auszubauen, sollte es sich auch für Smartphone-Bilder, gebrauchte Musikalien usw. eignen. Das Projekt RealScore erweitert das erfolgreiche Vorgängerprojekt, indem sich das Deep Learning Modell durch unüberwachtes Lernen an bislang ungesehene Daten (und deren unperfekten Zustand) anpasst.

Ausgewählte Publikation

Deep Learning in the Wild

Deep Learning mit neuronalen Netzwerken wird von immer mehr Menschen ausserhalb der klassischen Forschungslabore verwendet. Dies ist dem gewaltigen Erfolg der Methodik bei einer breiten Vielfalt an maschinellen Wahrnehmungsaufgaben zu verdanken. Auch wenn dieses Interesse durch schöne Erfolgsgeschichten genährt wird, bleibt jedoch die praktische Arbeit mit Deep Learning bei neuartigen Aufgaben ohne vorhandene Ausgangsbasis eine Herausforderung. Diese Abhandlung geht den konkreten Herausforderungen nach, die sich im Bereich realer Aufgaben stellen, und zwar auf der Basis von Fallstudien aus der Forschung und Entwicklung in Zusammenarbeit mit der Industrie, und sie zieht daraus Lehren.

Explainable AI

Themen:

  • Vertrauenswürdiges maschinelles Lernen
  • Robustes Deep Learning
  • MLOps

Im Schwerpunktbereich der Explainable AI werden Deep-Learning-Methoden untersucht, welche die besonderen Anforderungen aus der Praxis (z. B. in der Industrie und Medizin) erfüllen. Das beinhaltet einerseits das Erzielen von Ergebnissen, die robust sind sowohl gegenüber leicht variierendem Input (z. B. aufgrund von schleichenden Veränderungen in der Umgebung – Covariate-Shift genannt – oder Adversarial Attacks) als auch trotz kleiner Training-Sets («Small Data» oder Lernen im Kleinen, z. B. durch besseres Transfer Learning und die Nutzung von selbstüberwachtem und unüberwachtem Lernen). Andererseits ist es wichtig, sowohl die erlernten Modelle als auch den Trainingsprozess an sich erklärbar zu machen (interpretierbare KI): Erstens dient das dem Vertrauen eines Nutzers oder einer betroffenen Person in das System (vertrauenswürdige KI) und kann eine regulatorische Voraussetzung für den Einsatz auf bestimmten Anwendungsgebieten sein. Zweitens dient es dem Entwicklungsprozess entsprechender Modelle und Systeme (ML-Debugging, MLOps).

Projektbeispiel

QualitAI – Qualitätskontrolle für Industrieprodukte mittels Deep Learning für Bilder

Mit dem Projekt QualitAI wird eine vollautomatische Qualitätskontrollanlage für Industrieprodukte wie z. B. Herz-Ballonkatheter erforscht und entwickelt. Ermöglicht wird dies durch Innovationen bei der Analyse von Kamerabildern mittels Deep Learning, vor allem indem das resultierende Modell robust und interpretierbar gemacht wird.

Ausgewählte Publikation

Trace and Detect Adversarial Attacks on CNNs using Feature Response Maps

Durch die Existenz feindlicher Angriffe (Adversarial Attacks) auf sogenannte Convolutional Neural Networks (CNN) wird die Eignung entsprechender Modelle für seriöse Anwendungen in Frage gestellt. Die Angriffe manipulieren ein Input-Bild so, dass eine Fehlklassifikation entsteht, während es für einen menschlichen Beobachter immer noch normal aussieht – sie sind also nicht leicht erkennbar. In einem anderen Zusammenhang sind rückpropagierte Aktivierungen von Hidden Layers in CNN – «Feature Responses» auf einen gegebenen Input – nützlich gewesen, um für einen menschlichen Entwickler zu visualisieren, was das CNN «anschaut», während es seinen Output errechnet. Bei dieser Arbeit schlagen wir eine neuartige Nachweismethode für «feindliche» Beispiele vor, um Angriffe zu verhindern.

Natural Language Processing (NLP)

Themen:

  • Dialogsysteme
  • Textanalytik
  • Technologien für gesprochene Sprache

Im Schwerpunktbereich Natural Language Processing werden das maschinelle Verstehen von menschlicher Sprache in gesprochener Form (Verarbeitung gesprochener Sprache, automatische Spracherkennung, Sprecherunterscheidung) und in schriftlicher Form (Natural Language Processing, Textanalytik) untersucht, ebenso die Verwendung entsprechender maschineller Lernmethoden, wie etwa Transformer-Netze. Den Kontext dieser Forschung bilden Dialogsysteme, die eine natürlichsprachliche Kommunikation zwischen Mensch und Maschine ermöglichen. Besondere Aufmerksamkeit gilt der Entwicklung und Verfügbarkeit angepasster Methoden und Modelle für Dialekte und seltene Sprachen, für die Trainingsdaten nur beschränkt verfügbar sind. Weitere Forschungsgebiete sind die Textklassifikation (z. B. Sentiment-Analyse), Chatbots oder die Generierung von natürlicher Sprache (Natural Language Generation).

Projektbeispiel

Virtuelle Kids

Bei der Entwicklung kindesähnlicher Avatare für die Ausbildung von Befragern von Kindern in kriminalistischen Kontexten schliesst dieses Projekt bedeutende Erkenntnislücken hinsichtlich der Frage der Wirksamkeit einzelner Trainingselemente und personaler Einflussgrössen. Die Erkenntnisse und das Trainingstool können sowohl für die Aus- und Weiterbildung als auch für die Personalauswahl nutzbar gemacht werden Auf Grundlage dieser Erkenntnisse kann die Befragungspraxis verbessert werden und damit der internationalen Forderung nach einer kinderfreundlichen Justiz (Child-friendly Justice) entsprochen werden.

Ausgewählte Publikation

Survey on evaluation methods for dialogue systems

In dieser Abhandlung geben wir einen Überblick über die Methoden und Konzepte, die zur Evaluation von Dialogsystemen entwickelt werden. Die Evaluation ist an und für sich ein entscheidender Bestandteil des Entwicklungsprozesses. Oft werden Dialogsysteme mithilfe manueller Auswertungen und Fragebogen evaluiert. Das ist tendenziell jedoch sehr kosten- und zeitaufwändig. Deshalb wurde intensiv nach Methoden gesucht, die einen geringeren Einsatz von menschlicher Arbeit erlauben.

Publikationen

Folgen in Kürze.

Publikationen: Institut für angewandte Informations­technologie

Projekte

Folgen in Kürze.

Projekte: Institut für angewandte Informations­technologie