Conecta con nosotros

Ciencia y Tecnología

Mexicanos desarrollan silla de ruedas con lector de ondas cerebrales

Con el objetivo de facilitar la movilidad y simplificar la vida cotidiana de las personas con discapacidad motriz, un grupo de mexicanos en la Universidad Libre de Berlín, en Alemania, trabaja en el desarrollo de una silla de ruedas autónoma.

Se trata del investigador Adalberto Llarena, quien realiza un posdoctorado, y de José Antonio Álvarez y Omar Mendoza, quienes realizan su doctorado en dicha universidad germana.

En conjunto, los mexicanos trabajan en la adaptación de la tecnología desarrollada para los vehículos autónomos a las sillas de ruedas, indicó, Adalberto Llarena.

Este grupo ha adoptado algunas de las tecnologías y programas que se han desarrollado para crear automóviles autónomos, para acercar la tecnología a este tipo de vehículo individual”, manifestó.

Con esta silla de ruedas, los usuarios podrán indicar a qué parte del hogar se dirigen, si van a la cocina o al baño y la silla sola se conducirá a donde se le ordene, esquivando algunos obstáculos que se pudieran encontrar en el trayecto, como personas o muebles.

En un recorrido que hizo la Agencia Informativa Conacyt por el Laboratorio de Inteligencia Artificial, con motivo del Año Dual Alemania-México, el investigador mexicano detalló que la silla cuenta con un sistema de cómputo, cámaras de video y radares que le permiten evitar obstáculos con una precisión extraordinaria de centímetros.

Esto es un gran reto, porque a diferencia del vehículo autónomo que se desarrolla en el mismo laboratorio por un equipo multidisciplinario encabezado por el doctor Raúl Rojas —también mexicano—, la silla de ruedas circula en interiores, en donde el espacio es más reducido. Además, una silla de ruedas se enfrenta a más obstáculos que un vehículo, tales como el espacio y superficies irregulares que se sienten más que cuando se viaja en auto.

 

Excelsior

Ciencia y Tecnología

Meta presenta lentes Ray-Ban con pantalla y asistente de IA

Menlo Park, California. – Mark Zuckerberg, director ejecutivo de Meta, presentó el miércoles en el evento anual Meta Connect la nueva generación de lentes inteligentes de la compañía: los Ray-Ban Display, primeros en incorporar una pantalla diminuta dentro del lente para mostrar información en tiempo real.

La firma busca que las personas interactúen con la tecnología sin mirar constantemente su teléfono. Los nuevos lentes, fabricados junto con Ray-Ban (EssilorLuxottica), permiten enviar y leer mensajes, tomar fotos y videos, ver Instagram Reels, realizar videollamadas, recibir traducciones instantáneas, navegación en mapas y hasta respuestas del asistente Meta AI en formato visual y de audio. Todo esto solo es visible para el usuario, preservando su privacidad.

Los Ray-Ban Display se controlan mediante comandos de voz y un brazalete “neuronal” que interpreta pequeños gestos de la mano, como unir pulgar e índice para seleccionar opciones. Tienen una autonomía de seis horas y un estuche con carga adicional para 30 horas. Su precio en EE. UU. será de 799 dólares a partir del 30 de septiembre, en tiendas seleccionadas de Verizon, Lens Crafters, Ray-Ban y Best Buy.

Meta también actualizó sus modelos previos:

Ray-Ban Meta Gen 2 (379 dólares), con mejor batería, video 3K y funciones como cámara lenta.

Meta Oakley Vanguard (499 dólares), enfocados en deporte y actividades al aire libre, con integración a Strava y Garmin, altavoces más potentes y resistencia al agua y polvo.

Aunque la empresa fue pionera en popularizar este tipo de dispositivos, ahora compite con Google, Samsung, Snap y Amazon. Zuckerberg aseguró que la adopción de estos lentes sigue “trayectorias similares a las de los electrónicos de consumo más exitosos”, y EssilorLuxottica prevé fabricar 10 millones de unidades al año para 2026.

Las demostraciones en vivo revelaron que la tecnología aún está en fase temprana: el asistente falló en dar instrucciones de cocina y Zuckerberg tuvo problemas para contestar una videollamada durante el evento. Sin embargo, la apuesta es clara: integrar la inteligencia artificial a la vida diaria sin perder contacto visual con el entorno.

Continuar Leyendo
Publicidad
Publicidad
Publicidad

Más visto