Google I/O 2025: Android XR & Gemini – So bringt Google KI in die nächste Generation von Smart Glasses

Auf der Google I/O 2025 wurden im Bereich Brillen und erweiterte Realität (XR) einige wichtige Neuerungen vorgestellt, die stark auf die Integration von Künstlicher Intelligenz, insbesondere Gemini, setzen.

Google positioniert sich mit Android XR und der tiefgreifenden Integration der KI Gemini als Schrittmacher in einer neuen Ära tragbarer Technologien. Was bislang eher visionär klang, wird nun greifbar: intelligente, stilvolle Brillen, die in Echtzeit übersetzen, den Kontext deiner Umgebung verstehen und dir digitale Inhalte direkt ins Sichtfeld projizieren – ohne Smartphone in der Hand oder sperriges Headset auf dem Kopf. Damit bringt Google seine bewährte Android-Plattform in den Bereich der erweiterten Realität und öffnet Entwickler wie Nutzern ein völlig neues Spielfeld.

Ob unterwegs auf Reisen, im Berufsalltag oder beim Lernen neuer Sprachen: Die Kombination aus schlankem Design, intuitiver Bedienung und KI-gestützter Intelligenz hebt die Möglichkeiten von AR- und VR-Technologie auf ein neues Niveau. Android XR ist dabei mehr als nur ein Betriebssystem – es ist der technologische Unterbau für eine vernetzte und interaktive Zukunft, in der digitale und reale Welt zunehmend verschmelzen.

Themenübersicht:

  • Android XR als Plattform: Google hat Android XR als Betriebssystem für Extended-Reality-Geräte (AR- und VR-Brillen) vorgestellt und weiter detailliert. Ziel ist es, ein offenes Ökosystem für diese Geräte zu schaffen, ähnlich wie Android für Smartphones.
  • Integration von Gemini: Die KI Gemini wird tief in die Smart Glasses integriert. Dies ermöglicht eine Reihe von KI-gesteuerten Funktionen.
  • Live-Übersetzung: Ein zentrales Feature ist die Echtzeit-Sprachübersetzung, die Sprachbarrieren überwinden und „Untertitel für die reale Welt“ liefern soll. Das Gesprochene wird direkt ins Sichtfeld eingeblendet.
  • Umgebungsverständnis und visuelle Erkennung: Die Brillen sollen in der Lage sein, die Umgebung zu „sehen“ und Objekte sowie Texte visuell zu erkennen. Nutzer können den KI-Assistenten Gemini zu allem befragen, was sie gerade anschauen.
  • Partnerschaften mit Brillenherstellern: Google arbeitet mit namhaften Brillenherstellern wie Gentle Monster und Warby Parker zusammen, um stilvolle Brillen mit Android XR zu entwickeln. Erste Modelle werden für Anfang 2026 erwartet, zunächst in Nordamerika.
  • Leichtere und benutzerfreundlichere Geräte: Im Vergleich zu aktuellen AR/VR-Headsets sollen die Google Gemini Datenbrillen leichter und komfortabler für längere Nutzungszeiten sein.
  • Kamera, Mikrofone und Lautsprecher: Die neuen Smart Glasses sollen mit diesen Komponenten ausgestattet sein, um die Interaktion mit der Umgebung und die Kommunikation zu ermöglichen.
  • Kopplung mit Smartphones und App-Zugriff: Die Brillen können mit dem Smartphone gekoppelt werden, um diskret Informationen wie Navigationsdetails, Nachrichten oder Termine abzurufen, ohne das Handy aus der Tasche zu nehmen.
  • Entwickler-Unterstützung: Entwickler sollen noch in diesem Jahr mit der Entwicklung für die neue Android XR-Plattform beginnen können.


Android XR als Plattform

Google hat mit Android XR ein neues Betriebssystem für Extended-Reality-Geräte vorgestellt, das speziell für AR- und VR-Brillen konzipiert ist. Ziel ist es, ein offenes Ökosystem zu schaffen – ähnlich wie bei Android für Smartphones. Android XR kombiniert modernste Technologien wie die KI Gemini, die Nutzern kontextbezogene Unterstützung etwa bei Navigation, Übersetzung oder Kommunikation bietet. Entwickler können auf bekannte Tools wie ARCore, Android Studio, Jetpack Compose, Unity und OpenXR zurückgreifen. Erste Geräte, wie das Mixed-Reality-Headset „Project Moohan“ von Samsung und die Smart Glasses „Project Aura“ von Xreal, sollen 2025 erscheinen. Auch modische Kooperationen mit Marken wie Warby Parker, Gentle Monster und Kering Eyewear sind geplant. Google verfolgt mit Android XR einen plattformübergreifenden Ansatz, um eine breite Basis an XR-Anwendungen zu ermöglichen – sowohl für Konsumenten als auch für Entwickler.

Integration von Gemini

Google integriert seine KI Gemini tief in die Android XR Smart Glasses und hebt damit tragbare Technologie auf ein neues Niveau. Die Brillen sind mit Kameras, Mikrofonen, Lautsprechern und teils auch Displays ausgestattet und arbeiten eng mit dem Smartphone zusammen. Gemini erkennt in Echtzeit, was du siehst oder hörst, und liefert kontextbezogene Unterstützung. Zu den Funktionen gehören Live-Übersetzungen direkt im Sichtfeld, visuelle Navigation via Google Maps, Erkennung und Erklärung von Objekten in deiner Umgebung sowie eine Gedächtnisfunktion für zuvor gesehene Inhalte. Auch Kommunikation ist möglich – du kannst Nachrichten senden oder Informationen abrufen, ohne zum Handy zu greifen. Google kooperiert dabei mit Marken wie Gentle Monster und Warby Parker, um die Technik in alltagstauglich-stilvolle Brillen zu integrieren. Die ersten Modelle sollen ab 2026 verfügbar sein.

Live-Übersetzung

Ein zentrales Feature der Android XR Smart Glasses ist die Live-Übersetzung in Echtzeit, die mithilfe von Googles KI Gemini ermöglicht wird. Diese Funktion blendet gesprochene Sprache als Untertitel direkt im Sichtfeld ein und überwindet so Sprachbarrieren im Alltag. Während der Google I/O 2025 demonstrierten Shahram Izadi und Nishtha Bhatia diese Fähigkeit, indem sie auf Farsi und Hindi miteinander sprachen, während die Brille die Übersetzungen live ins Englische einblendete.

Die Brillen sind mit Kameras, Mikrofonen und optionalen In-Lens-Displays ausgestattet, die es Gemini ermöglichen, die Umgebung visuell und akustisch zu erfassen. Dadurch kann die KI nicht nur Gespräche übersetzen, sondern auch Objekte erkennen und kontextbezogene Informationen liefern. Diese Funktionen sind besonders nützlich für Reisende, die sich in fremden Ländern zurechtfinden müssen. Die Veröffentlichung der ersten Modelle ist für 2026 geplant.

Umgebungsverständnis und visuelle Erkennung

Die Android XR Smart Glasses von Google nutzen die KI Gemini, um ein umfassendes Verständnis der Umgebung zu ermöglichen. Durch integrierte Kameras und Mikrofone erfassen die Brillen visuelle und akustische Informationen in Echtzeit. Gemini analysiert diese Daten und erkennt Objekte, Texte und Szenen, wodurch Nutzer kontextbezogene Informationen erhalten können. Beispielsweise kann Gemini ein gesehenes Buch identifizieren und Rezensionen oder Kaufoptionen anzeigen. Diese Funktionen machen die Brillen zu einem vielseitigen Werkzeug für den Alltag, indem sie Informationen direkt ins Sichtfeld einblenden und so die Interaktion mit der Umgebung erleichtern.

Partnerschaften mit Brillenherstellern

Google arbeitet mit namhaften Brillenherstellern wie Gentle Monster und Warby Parker zusammen, um stilvolle Brillen mit Android XR zu entwickeln. Erste Modelle werden für Anfang 2026 erwartet, zunächst in Nordamerika. Das Design der Brille orientiert sich an klassischen Brillenformen, wobei die Technik dezent in die etwas dickeren Bügel integriert ist. Durch die Auslagerung der Rechenleistung auf das gekoppelte Smartphone konnte das Gewicht der Brille reduziert werden, was den Tragekomfort für längere Nutzungszeiten erhöht. So lassen sich Funktionen wie Navigation, Übersetzung oder Informationsabruf im Alltag nutzen, ohne aufwändige oder schwere Headsets tragen zu müssen.

Leichtere und benutzerfreundlichere Geräte

Im Vergleich zu aktuellen AR/VR-Headsets sollen die Android XR Smart Glasses deutlich leichter und komfortabler sein. Die Kombination aus klassischem Brillendesign und intelligenter Technologie sorgt für ein angenehmes Tragegefühl – auch bei längerer Nutzung. Google setzt damit bewusst auf Alltagstauglichkeit statt auf rein immersive, stationäre Nutzungsszenarien.

Kamera, Mikrofone und Lautsprecher

Die neuen Android XR Smart Glasses sind mit einer Kamera, mehreren Mikrofonen und Lautsprechern ausgestattet, um eine nahtlose Interaktion mit der Umgebung und effektive Kommunikation zu ermöglichen. Die Kamera erfasst visuelle Informationen in Echtzeit, während die Mikrofone Sprache und Geräusche aufnehmen. Die Lautsprecher geben Audioausgaben diskret ans Ohr weiter, was Funktionen wie Navigation, Live-Übersetzungen oder Sprachausgabe unterstützt. Ein optionales In-Lens-Display zeigt Informationen direkt im Sichtfeld, ohne die Sicht auf die reale Welt zu beeinträchtigen.

Kopplung mit Smartphones und App-Zugriff

Die Android XR Smart Glasses lassen sich nahtlos mit deinem Smartphone koppeln, sodass du diskret und hands-free auf wichtige Informationen zugreifen kannst. Dank tiefer Integration mit Gemini und Android kannst du Nachrichten lesen, Termine verwalten, Navigationsanweisungen erhalten und weitere Apps nutzen – alles über die Brille. Informationen werden dezent ins Sichtfeld eingeblendet, ohne dass du dein Gerät in die Hand nehmen musst.

Entwickler-Unterstützung

Entwickler können ab sofort mit der Entwicklung für Android XR beginnen. Google hat die Android XR SDK Developer Preview 2 veröffentlicht, die Tools wie Jetpack Compose for XR, Material Design for XR, ARCore-Integration, Unity-Unterstützung über OpenXR, einen Android XR Emulator sowie WebXR bietet. Die meisten bestehenden Android-Apps sind bereits mit Android XR kompatibel. Für Entwickler stehen umfangreiche Dokumentationen, Beispielprojekte und Codelabs zur Verfügung, um schnell eigene XR-Erlebnisse zu schaffen.


Quellen:

Schreibe einen Kommentar