Intelligente Assistenzsysteme der Zukunft analysieren immer komplexere Situationen und erkennen dank verbesserter Umfeldsensorik das Gefahrenpotenzial im Straßenverkehr noch besser als heute. Die Augen des Autos sind die Kameras. Die Kamera hinter der Frontscheibe sieht im Bereich von 45 Grad alles. Sie erfasst Schilder, Markierungen, Fußgänger und andere Autos. Die zusätzlichen vier um das Auto herum verteilten Kameras und die Radar- und Ultraschallsensoren sorgen für eine 360-Grad-Wahrnehmung. Bald sollen Live-Bilder aus der Kamera künftig die bisherige Kartendarstellung im Navigationssystem ersetzen. Darin blendet das futuristische Navi Fahrhinweise ein, wie man sie aus bisherigen Navigationssystemen kennt wie Richtungspfeile und Geschwindigkeitshinweise. Ebenfalls angezeigt werden Points-of-Interest wie Tankstellen oder Parkplätze. Denn wie Google mit der Brille wollen auch die Fahrzeughersteller das Blickfeld des Fahrers als Bühne für eine digitale Datenshow nutzen. Dazu soll das sogenannte Head-up-Display (HUD), das bislang nur die Geschwindigkeit und Navigationspfeile auf die Frontscheibe projiziert, deutlich aufgerüstet werden. „Augmented Reality“ (AR – „erweiterte Realität“) heißt die Technik. Gesteuert von einer Bilderkennungssoftware, einer Kamera und den Bewegungssensoren des Autos wirft ein Projektor die Grafiken so in die Landschaft, dass sie immer am richtigen Fleck erscheinen. Bleibt die Frage, wie sehr die AR Anwendungen im Automobilumfeld die Fahrer ablenkt und auf welche Akzeptanz sie stößt.