CES: Bosch zeigt KI-Plattform für intelligente Fahrzeugcockpits

With Bosch's AI-controlled cockpit, the vehicle is evolving from a mere means of transportation into an intelligent system that recognizes user habits, preferences, and situational contexts and continuously learns. (© Bosch)

Bosch präsentiert auf der CES 2026 erstmals seine neue „AI Extension Platform“, einen KI-fähigen Hochleistungsrechner für die Umsetzung eines intelligenten, KI-gesteuerten Cockpits. Die Plattform unterstützt unter anderem einen KI-Sprachassistenten, ein umfassendes Innenraum-Szenenverständnis, präzise Navigationsfunktionen sowie erweiterte Infotainment- und Entertainment-Anwendungen.

Bosch geht von einem stark wachsenden Markt für KI-basierte Cockpit- und IVI-Lösungen aus und erwartet in diesem Segment bis zum Ende des Jahrzehnts einen Umsatz von mehr als zwei Milliarden Euro. Ein zentraler Anwendungsfokus liegt auf der produktiven Nutzung der Fahrzeit. Durch die Integration von Microsoft Foundry und speziell angepassten Cockpit-Funktionen ermöglicht die Plattform den Zugriff auf Microsoft 365. Die Vernetzung mit weiteren Fahrzeugdomänen stellt dabei sicher, dass sicherheitsrelevante Funktionen priorisiert und Ablenkungen reduziert werden. So kann der Fahrer beispielsweise per Sprachbefehl an einer Microsoft-Teams-Konferenz teilnehmen, während das System unterstützend Fahrfunktionen wie die adaptive Geschwindigkeitsregelung aktiviert.

Technische Basis der AI Extension Platform ist der NVIDIA DRIVE AGX Orin System-on-Chip, der auf der NVIDIA-CUDA-Plattform aufsetzt und OEMs die Integration eigener KI-Modelle und -Agenten erlaubt. Die kompakte Recheneinheit stellt zusätzlich 150 bis 200 TOPS zur Verfügung, lässt sich über einfache Strom- und Ethernet-Schnittstellen integrieren und unterstützt sowohl aktive Luft- als auch Flüssigkeitskühlung. Zur Beschleunigung der KI-Entwicklung setzt Bosch zudem auf NVIDIA-Softwarelösungen wie das NeMo Framework, das den gesamten KI-Lebenszyklus abdeckt und die Integration komplexer In-Vehicle-Anwendungen wie Echtzeit-Sensorverarbeitung, Vision-Language-Modelle sowie fortschrittliche Sprach- und Reasoning-Funktionen auf Basis von NVIDIA-Nemotron-Modellen ermöglicht. (oe)

Originalmeldung