Gafas de realidad aumentada traducen en tiempo real
Brilliant Labs ha presentado sus nuevas generación de gafas de realidad aumentada, llamadas Frame AI, un dispositivo que tiene la capacidad de traducir cualquier contenido de texto al instante, reconocer imágenes y realizar más tareas con nuestro entorno.
Estos visores están equipados con inteligencia artificial y llegarán al mercado en abril de 2024 con la idea de integrarse en la vida cotidiana de los usuarios con funciones específicas, como la traducción y la búsqueda de contenido.
Cómo funcionan las Frame AI
Gracias a su tecnología de reconocimiento óptico y procesamiento de lenguaje natural, estas gafas son capaces de identificar y traducir cualquier texto que el usuario tenga ante sus ojos. Ya sea un letrero en un idioma extranjero, un menú en un restaurante internacional o incluso un libro en una biblioteca. Todo esto puede sobreponerse sobre el objeto y los ojos del usuario directamente en su campo de visión.
Esta capacidad de traducción instantánea tiene el potencial de eliminar barreras lingüísticas y facilitar la comunicación en situaciones cotidianas, tanto en entornos locales como internacionales. Por ejemplo, permitirá que los turistas puedan movilizarse en otros países sin tener que solicitar ayuda frecuentemente, solucionando grande parte de los problemas que se encuentran en el camino para tomar un bus o comer en un bar.
Pero las gafas Frame AI no se limitan únicamente a la traducción de texto. Estos dispositivos también son capaces de reconocer imágenes y realizar una variedad de tareas útiles para el usuario. Desde identificar objetos y lugares hasta proporcionar información contextual sobre el entorno.
Una de las características de las gafas es su comodidad y versatilidad. Con un diseño clásico y la opción de equiparlas con lentes graduados, este producto tiene la capacidad de adaptarse a las necesidades de cualquier usuario, incluidos aquellos con problemas de visión. Para esto, los lentes tienen un rango de distancia interpupular de 58 a 72 milímetros, aunque los creadores sugieren usar la aplicación Eye Measure para calibrar el dispositivo con mayor precisión.
Además, tienen peso ligero de menos de 40 gramos, su autonomía de batería garantizan una experiencia de uso cómoda y duradera y negro, blanco y otro transparente en el que se ven los cables internos.
En cuanto a su funcionamiento técnico, las gafas Frame AI cuentan con paneles microOLED que mejoran la calidad de imagen y ofrecen una visualización más realista. Además, cuentan con baterías recargables que dan una autonomía de todo un día con un uso frecuente y el sistema de carga es mediante USB gracias a un clip que se ubica en el puente de los lentes.
El anuncio de estas gafas hace parte de un sector de la industria tecnológica que está creciendo: los dispositivos de traducción. Cada vez más empresas están lanzando productos para romper las barreras idiomáticas y presentar soluciones para que este problema de accesibilidad se acabe y mediante inteligencia artificial dos personas se puedan comunicar sin importar la lengua que hablen.
Un ejemplo es el X1 Interpreter Hub, un dispositivo que fue presentando en el CES 2024 y que tiene funciones de traducción en tiempo real, permitiéndole manejar hasta 40 idiomas mediante inteligencia artificial.
El dispositivo fue creado por Timekettle tiene un diseño que se asemeja a un reproductor de MP3 y está equipado con pantalla, altavoces y auriculares inalámbricos. Dentro de sus funciones está la posibilidad de que 20 participantes puedan interactuar al tiempo en cinco idiomas y la capacidad de trabajar sin conexión en 13 idiomas.
Aunque su principal enfoque es que dos personas puedan sostener una conversación, cada una en su idioma, y que la traducción les permita entenderse sin necesidad de otro intermediario o esperar unos segundos a la traducción de un dispositivo.
Nota original: https://www.infobae.com/tecno/2024/02/11/olvidate-de-aprender-idiomas-estas-gafas-de-realidad-aumentada-traducen-en-tiempo-real/?utm_medium=Social&utm_source=Twitter#Echobox=1707680725
Fuente original de la foto: