El CEO de Meta, Mark Zuckerberg, subió al escenario este miércoles para presentar la próxima generación de dispositivos portátiles impulsados por inteligencia artificial de la compañía: unas gafas inteligentes con una pequeña pantalla dentro de la lente.

Representan el siguiente paso de la empresa hacia un futuro en el que todos pasemos menos tiempo mirando la pantalla de un teléfono, e interactuemos en cambio con la tecnología de IA de Meta —así como con nuestros mensajes, fotos y el resto de nuestra vida en línea— a través de gafas no muy diferentes de los lentes de prescripción o gafas de sol que podríamos usar.

La nueva gama de dispositivos portátiles también forma parte del intento de la empresa de hacer que su tecnología de IA sea una parte más importante de la vida cotidiana de los usuarios, mientras compite con otros actores de la industria para crear los modelos más avanzados y ampliamente utilizados.

Meta Ray-Ban Display

Meta ha descrito sus Ray-Ban como gafas inteligentes que pueden “ver lo que ves y oír lo que oyes”. Ahora, con la pantalla Meta Ray-Ban, los usuarios también contarán con retroalimentación visual que les permitirá interactuar con el dispositivo de nuevas maneras.

Las nuevas gafas Ray-Ban Display de Meta tienen una pequeña pantalla que solo el usuario puede ver dentro del lente.

Las nuevas gafas Ray-Ban Display de Meta tienen una pequeña pantalla que solo el usuario puede ver dentro del lente. Cortesía de Meta.

Las Display cuentan con una pequeña pantalla en la esquina interior derecha de la lente derecha. La pantalla parece proyectarse a varios pies delante del entorno del usuario.

Esa pantalla permite hacer una variedad de funciones que antes se hacían en la pantalla del teléfono: ver y enviar mensajes, capturar y revisar fotos y videos, ver Reels de Instagram y realizar videollamadas en las que los usuarios verán a la persona al otro lado.

“Hemos estado trabajando en gafas durante más de 10 años, y este es uno de esos momentos especiales en los que podemos mostrarte algo en lo que hemos invertido gran parte de nuestras vidas”, dijo Zuckerberg, “y que creo que es diferente a todo lo que haya visto”.

También hay una función de navegación que muestra dónde se encuentra un usuario en un mapa en tiempo real, para que pueda caminar a algún lugar sin tener que mirar constantemente una aplicación en su teléfono. Además, la transcripción y traducción en vivo permite a los usuarios ver lo que dice su interlocutor en tiempo real. (Las conversaciones subtituladas también se guardarán como transcripción en la app Meta AI, ¡una función que, al menos los periodistas, encontrarán muy útil!)

Los usuarios también pueden hacer preguntas al asistente Meta AI y este responderá con paneles de información en la pantalla, además de una respuesta de audio.

Mientras que los usuarios podían interactuar con versiones anteriores de las Meta Ray-Ban solo mediante comandos de voz, las Meta Ray-Ban Displays funcionan con una pulsera “neuronal” que permite navegar por la pantalla usando sutiles gestos de la mano. Tocar el pulgar y el índice, por ejemplo, actúa como función de selección para reproducir música.

Solo el usuario puede ver la pantalla. Eso es intencional para proteger la privacidad de los mensajes, fotos y otros contenidos del usuario. Pero también podría provocar momentos incómodos si las personas no se dan cuenta de que los usuarios de las Meta Ray-Ban Display están leyendo mensajes entrantes en medio de una conversación.

Sin embargo, los usuarios pueden apagar la pantalla cuando no la están utilizando y usar las gafas como si fueran normales.