Las gafas Project Aura, desarrolladas en colaboración con Xreal, se probaron por primera vez

Desarrolladas en colaboración con Google y Xreal Proyecto Aurase convirtió en el segundo producto físico de la plataforma Android XR. Las gafas, cuyo lanzamiento está previsto para 2026, se vieron en detalle por primera vez con la experiencia de primera mano del redactor de The Verge.

Al tomar las gafas en la mano, el redactor se da cuenta inmediatamente de que el dispositivo difiere de las gafas inteligentes clásicas. Con su gruesa montura y el cable que sale por el lado izquierdo, las gafas parecen funcionar con una pequeña batería y un panel táctil. Los representantes de Google señalan que el dispositivo se diseñó originalmente como auricular, pero parece unas gafas. Por lo tanto «gafas XR con cable«. El usuario puede conectarse a su portátil de forma inalámbrica y crear un escritorio virtual a través de las gafas. El campo de visión puede ser de hasta 70 grados.

Las aplicaciones se abren en el escritorio. Por ejemplo, mientras se editan fotos con Lightroom, se puede reproducir YouTube al mismo tiempo. Los juegos 3D de escritorio pueden ampliarse con movimientos del dedo. Al mirar un cuadro en la pared, se puede obtener información de Gemini con la función «Círculo para buscar». El redactor informa de que realiza aquí las mismas operaciones que en el Galaxy XR y Vision Pro, pero que experimenta un uso más natural al no llevar los auriculares.

Las gafas de Google para Android XR con Project Aura destacan por su compatibilidad con apps

Todas las experiencias de las gafas funcionan con apps desarrolladas para el Galaxy XR de Samsung. Las apps funcionan directamente sin necesidad de modificaciones. Este detalle demuestra la facilidad técnica que Android XR ofrece a los creadores de apps. La falta de aplicaciones para Meta Ray-Ban Display o Vision Pro dificultó la generalización de estos dispositivos. La necesidad de que los desarrolladores preparen software distinto para sistemas diferentes supone un problema, especialmente para los equipos pequeños. Android XR pretende resolver este problema con una base común de aplicaciones. También está previsto que las gafas sean compatibles con las nuevas gafas Android que fabricarán empresas como Warby Parker y Gentle Monster.

Durante la demostración, se mostró al redactor la experiencia Uber. Un coche llamado a través del teléfono aparece en la pantalla de las gafas con información sobre la matrícula y el modelo. Mirando hacia abajo, se muestra el mapa del aeropuerto y las indicaciones para llegar. Todo el proceso funciona a través de la aplicación Uber en Android. Cuando se da la orden de reproducir música a través de YouTube Music, el nombre de la pista y los controles multimedia aparecen en la pantalla. Todo esto se hace emparejando las gafas con un teléfono Android.

Cuando se hace la foto, la previsualización aparece tanto en las gafas como en el Pixel Watch. Esta estructura también se puede utilizar en modelos que no tienen pantalla pero llevan cámara. Nano Banana Pro, que añade efectos visuales a las fotos tomadas, puede crear contenidos temáticos de K-pop. Las gafas también pueden traducir en tiempo real y admiten videollamadas a través de Meet. Todas estas funciones se ejecutan directamente a través de las aplicaciones Android existentes.

En un prototipo con doble pantalla, la imagen se proyecta en ambas lentes, lo que proporciona un campo de visión más amplio. Este modelo aún no saldrá a la venta. Sin embargo, se pueden ver vídeos 3D de YouTube durante la prueba. Según el redactor, la experiencia resulta más ligera que en dispositivos anteriores. El campo de visión es más sencillo pero suficiente. El contenido consiste en las aplicaciones habituales de Android.

Se espera que las gafas sean compatibles con iOS en 2026. Las apps de Google como Gemini, Google Maps y YouTube Music funcionarán directamente. Puede haber limitaciones en apps de terceros. Sin embargo, el equipo de Android XR está trabajando en soluciones para superar estas limitaciones. Su objetivo es ofrecer experiencias similares en diferentes plataformas. Esta estructura ofrece un modo de funcionamiento independiente del hardware.

Se han tomado notables precauciones en materia de privacidad. Cuando la cámara está activada, una luz brillante brilla hacia el exterior. Hay marcas físicas codificadas por colores en las gafas para indicar que no se están realizando grabaciones. Los sistemas de permisos de Gemini y Android se aplican a todas las operaciones basadas en la cámara. El acceso a los sensores por parte de aplicaciones de terceros estará estrictamente controlado. Estas medidas pretenden reducir los problemas de privacidad experimentados en modelos anteriores.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept