Industrial AI Cloud geht in Betrieb

bi 260204 ki fabrik
Bild: Deutsche Telekom AG

Die Deutsche Telekom hat ihre Industrial AI Cloud offiziell in Betrieb genommen. Die KI-Fabrik wurde in den letzten sechs Monaten gemeinsam mit Nvidia und dem Datacenter-Partner Polarise aufgebaut. Unternehmen, Forschungseinrichtungen sowie dem öffentlichen Sektor in Deutschland und Europa wird dadurch der Zugriff auf hoch performante, souveräne Rechenleistung für künstliche Intelligenz (KI) ermöglicht.

Wie die Telekom mitteilt, nutzen bereits mehrere Unternehmen KI-Rechenkapazitäten, darunter Agile Robots SE oder PhysicsX. Die KI-Fabrik ist mit den bisherigen Kunden bereits über ein Drittel ausgelastet.

„Wir reden nicht, die Telekom macht“, betont Tim Höttges, CEO Deutsche Telekom. „Wir investieren in KI, in den deutschen Standort und in Europa. Unsere KI-Fabrik in München ist die Basis für innovative Geschäftsmodelle, für die Industrie, Start-ups und den Staat – und für Souveränität. Wir beweisen hier, dass Europa KI kann.“

„Damit die Investitionsoffensive gelingt, brauchen wir beides – öffentliche und private Investitionen. Für die öffentlichen Investitionen haben wir die Voraussetzungen geschaffen und arbeiten jetzt daran, dass mit Tempo investiert wird“, sagt Bundesfinanzminister Lars Klingbeil. „Ich konnte mich heute in beeindruckender Weise davon überzeugen, dass auch die privaten Investitionen anlaufen. Für mich ist besonders wichtig: Technologieführerschaft muss der Kern des künftigen Geschäftsmodell Deutschlands sein. Hier wurde ein wichtiger Pflock für das deutsche und europäische KI-Ökosystem gesetzt. Davon profitieren nicht nur innovative Unternehmen, das stärkt auch die digitale Souveränität.“

In der Münchner Industrial AI Cloud stehen Rechen- und Speicherressourcen für KI-Anwendungen zur Verfügung. Die Infrastruktur basiert auf rund 10.000 Nvidia Blackwell GPUs, darunter Nvidia DGX B200 Systeme und Nvidia RTX Pro Server GPUs, die eine Rechenleistung von bis zu 0,5 ExaFops liefern. Wie die Telekom mitteilt, könnten damit alle 450 Millionen EU Bürgerinnen und Bürger gleichzeitig einen KI-Assistent bzw. Chatbot nutzen.

Das Rechenzentrum bildet zudem die Basis für den sogenannten ‚Deutschland Stack‘, den die Telekom gemeinsam mit SAP bereitstellt: Die Telekom-Tochter T-Systems verantwortet die Infrastruktur- und Plattformebene inklusive T Cloud. SAP liefert darauf aufbauend die Business Technology Platform sowie Fach- und KI-Anwendungen. Laut Pressemitteilung erhalten Kunden alle technischen Elemente, die sie für ihre Cloud-Transformation brauchen.

Partnerschaft mit Siemens

Siemens integriert zudem sein Simulations-Portfolios SIMCenter auf der Industrial AI. Die Software-Suite für hochpräzise Simulationen und digitale Zwillinge ermöglicht Unternehmen ihre Produkte virtuell zu entwickeln, zu testen und schneller zur Marktreife zu bringen. In der Pressemitteilung kündigt die Telekom an, dass großindustrielle Tools wie der Digital Twin Composer, GPU-basierte Simulationen und KI-Copiloten über die KI-Fabrik für Unternehmen angeboten werden.

Die Telekom verweist zudem darauf, dass das Rechenzentrum vollständig aus erneuerbaren Energien betrieben wird. Die Abwärme soll in Zukunft das gesamte Quartier Tucherpark mit Wärme versorgen. Das Kühlkonzept setzt auf Kühlung des Rechenzentrums durch Wasser des nahegelegenen Eisbaches. Die Industrial AI Cloud fügt sich somit in die Nachhaltigkeitsstrategie der Telekom ein.

Soofi-Projekt auf der Industrial AI Cloud

Zu den ersten Großprojekten auf der Industrial AI Cloud gehört das Forschungsprojekt Soofi (Sovereign Open Source Foundation Models). Die Leibniz Universität Hannover hat der Telekom einen Auftrag erteilt, um die technische Infrastruktur für die Entwicklung eines neuen, europäischen Large Language Models (LLM) bereitzustellen.

Ziel des Projekts ist ein souveränes Open-Source-Sprachmodell mit rund 100 Milliarden Parametern, das vollständig in Europa trainiert und betrieben wird und europäische Sprachen fokussiert. Im Fokus stehen europäische Sprachen und industrielle Anwendungen.