Eingabe löschen

Kopfbereich

Schnellnavigation

Hauptnavigation

Mehr Speicher für CAI GPU-Infrastruktur

Das CAI baut seine Recheninfrastruktur kontinuierlich weiter aus. Nachdem in den letzten Jahren hauptsächlich in neue Rechenleistung investiert wurde, wird nun das Speichersystem erneuert. Dadurch werden Machine Learning Experimente einfacher und schneller.

Das Centre for Artificial Intelligence (CAI) der ZHAW ist spezialisiert auf die Bereiche Autonomous Learning Systems, Computer Vision, Perception and Cognition, Trustworthy AI, AI Engineering und Natural Language Processing. In all diesen Bereichen wird Deep Learning eingesetzt, eine Methodik, welche komplexe Machine Learning Systeme mithilfe von enormer Rechenleistung und vielen Beispielen in Form grosser Datensätze optimiert. Für diese rechenintensive Optimierungsprobleme werden typischerweise Grafikkarten (GPUs) verwendet, welche viele Berechnungen parallel durchführen können. Neben den Grafikkarten werden Prozessoren (CPUs) zum Laden der Daten vom Filesystem benötigt, sowie Arbeitsspeicher, um die grossen Datenmengen auf dem System zwischenzuspeichern.

Das CAI unterhält zu diesem Zweck zusammen mit dem InIT eine moderne Infrastruktur, welche laufend ausgebaut und optimiert wird. So stehen den Mitarbeitenden mehrere Systeme mit insgesamt 124 GPUs, 2648 CPU-Cores und 21.5 TB RAM zu Verfügung. Nachdem in den letzten Jahren die Rechenleistung massiv erhöht wurde, konnte nun das Speichersystem erneuert werden. Insbesondere wird damit das Management von Deep Learning Trainingsdatensätzen, welche typischerweise aus Millionen von kleinsten Dateien wie Textausschnitten, Bildern oder kurzen Videosequenzen bestehen, verbessert. Die neuen Speichersysteme der Firma DALCO bieten hierzu unter anderem 216 TB HDD sowie 15 TB SSD Speicher. Sie werden über zwei redundante 100 GB Netzwerkleitungen mit der bestehenden Infrastruktur verbunden und erlauben somit einen enorm schnellen Datenzugriff.

Mit diesem neuen Storage-Server sieht sich das CAI gerüstet, um noch effizienter Deep Learning Modelle zu trainieren und hiermit Forschung und industrielle Anwendung zu beschleunigen.