Discapacidad visual
La realidad aumentada (RA) ya no es solo cosa de videojuegos o filtros fotográficos; también está transformando la vida de personas ciegas o con baja visión de manera muy real. Estas tecnologías aumentan la percepción del entorno convirtiendo la información visual en señales accesibles – por ejemplo, audio 3D, descripciones verbales o vibraciones táctiles – para que quienes no ven puedan “sentir” y entender mejor el mundo que les rodea. En esta entrada exploramos casos concretos de RA aplicada a la discapacidad visual: desde apps móviles y dispositivos inteligentes, hasta proyectos pioneros desarrollados en España que mejoran la autonomía, movilidad, acceso a la información e interacción de las personas con discapacidad visual. Hablaremos de ejemplos que integran también inteligencia artificial y otras innovaciones, siempre con el enfoque puesto en la inclusión y la vida cotidiana. Al final, reflexionaremos sobre el impacto social de estas tecnologías empoderadoras.
Orientación y movilidad aumentadas: guías virtuales para moverse con seguridad
Desplazarse de un lugar a otro de forma autónoma es uno de los mayores retos para una persona con discapacidad visual. La realidad aumentada, combinada con sensores y AI, está dando lugar a nuevas “guías virtuales” que complementan al bastón blanco o al perro guía. Por ejemplo, investigadores de la Universidad Politécnica de Madrid han creado e-Glance, un sistema de RA que genera un mapa virtual de espacios interiores accesible desde el smartphone. Esta “maqueta” digital le transmite al usuario información sobre la distribución de la sala y la ubicación de objetos u obstáculos, ayudándole a formarse una imagen mental del espacio más allá de lo que alcanza con el bastón o el oído. El objetivo, explica Antonio Cobo (investigador de la UPM), es facilitar la vida diaria y la inclusión laboral de las personas ciegas, extendiendo esta orientación aumentada a entornos como oficinas, hoteles, centros comerciales o estaciones de tren. Aunque e-Glance aún es un prototipo en desarrollo, en pruebas iniciales permitió a usuarios ciegos detectar más obstáculos en una sala y explorar el entorno un 53% más rápido gracias a su interfaz sensorial de largo alcance. Esto demuestra cómo la RA puede mejorar significativamente la movilidad y la confianza al desplazarse.
Otro ejemplo destacado es Lazzus, una app de navegación pensada como un “asistente de campo de visión auditivo”. Desarrollada por la startup española NeoSenTec (con apoyo de la ONCE), Lazzus emplea el GPS del móvil y brújula para informar mediante voz de los puntos de interés y obstáculos en torno al usuario. Funciona casi como un radar sonoro: avisa de elementos cercanos como establecimientos, pasos de peatones, cruces, escaleras, etc., ayudando a caminar con seguridad y a descubrir el entorno. La app ofrece distintos modos según la situación – por ejemplo, modo linterna para describir lo que hay en la dirección hacia la que se apunta el teléfono, o modo 360º para escanear todo alrededor. Más de 200 personas con distintos grados de discapacidad visual participaron en pruebas piloto de Lazzus para afinar la utilidad real de estas funciones. Hoy, la aplicación acompaña a usuarios por ciudades de toda España, ampliando su autonomía al permitirles incluso viajar solos a lugares desconocidos con mayor tranquilidad.
Cuando se trata de transporte público y señalización urbana, la realidad aumentada también está marcando la diferencia. Un caso muy aplaudido es NaviLens, un sistema creado en España que combina etiquetas visuales de alta densidad (similares a códigos QR de colores) con una app móvil para proporcionar información orientativa. Varias ciudades han instalado estos códigos en sus estaciones y paradas: por ejemplo, en Barcelona, usuarios con discapacidad visual pueden escanear con el teléfono los carteles NaviLens desde varios metros de distancia (no hace falta enfocar) y recibir al instante información auditiva sobre dónde están, qué líneas de bus o metro pasan por allí y cuánto falta para la próxima llegad. Esta tecnología, implantada ya en parte del metro de Barcelona (Línea 9) y en líneas de autobús como la H12, permite moverse de forma autónoma por las estaciones, localizar accesos y andenes, e incluso conocer incidencias del servicio simplemente apuntando la cámara hacia la etiqueta más cercana. La app NaviLens usa realidad aumentada visual para quienes tienen resto de visión (mostrando flechas direccionales superpuestas en la imagen de la cámara), pero sobre todo ofrece una experiencia auditiva inclusiva: convierte la señalética visual en información hablada en múltiples idiomas. Murcia fue la primera ciudad en aplicar NaviLens en todo su tranvía, haciendo que ahora cualquier persona ciega pueda saber en qué parada está, cuánto falta para el próximo tren y hasta dónde se encuentra exactamente la puerta cuando el tranvía se detiene. Son avances que convierten el transporte y las calles en entornos más amigables y navegables sin ayuda.
No podemos hablar de movilidad asistida sin mencionar los bastones inteligentes, otra iniciativa complementaria a la RA. En España, el ingeniero Antonio Alarcón inventó el Bastón Egara, un mango electrónico que se acopla al bastón blanco tradicional para detectar obstáculos aéreos (por encima de la altura de la cintura, como ramas o señales sobresalientes). Egara incorpora tres sensores de ultrasonidos al extremo del bastón que crean una especie de barrera virtual: si detectan algo en el camino, envían una señal vibratoria inmediata a un brazalete en la muñeca del usuari. De este modo, la persona recibe un aviso cuando hay un objeto a la altura de la cabeza o el pecho y puede reaccionar a tiempo para esquivarlo, evitando golpes peligrosos. Lo brillante del diseño es que no requiere cambiar la forma de usar el bastón; el dispositivo solo vibra en caso necesario, manteniendo la experiencia lo más parecida posible a la de un bastón convencional. Actualmente Egara es finalista en premios de innovación y cuenta con prototipos en prueba, con la mira puesta en llevarlo al mercado para ofrecer más seguridad y opciones de movilidad a la comunidad ciega. Junto a otras soluciones como el bastón WeWalk (equipado con altavoz, asistente de voz y GPS), estas innovaciones muestran que la tecnología puede integrarse en herramientas habituales para aumentar la percepción espacial sin invadir la rutina del usuario.
Acceso a la información: “ojos” artificiales en el día a día
Además de moverse, las personas con discapacidad visual necesitan acceder a infinidad de información visual en su vida cotidiana: leer documentos, identificar productos, reconocer a quién tienen delante, etc. Aquí es donde entran en juego los dispositivos y aplicaciones de visión artificial, que actúan como “ojos electrónicos” describiendo el mundo. Muchos de ellos combinan cámara, realidad aumentada y algoritmos de inteligencia artificial (IA) para interpretar la escena en tiempo real y transmitirla de forma comprensible.
Un referente en este ámbito es OrCam MyEye, un pequeño dispositivo de origen israelí pero disponible en España, considerado uno de los inventos tecnológicos más revolucionarios para personas ciegas. OrCam es una cámara inteligente con IA que se acopla magnéticamente a casi cualquier gafa y lee instantáneamente textos impresos o digitales, reconoce rostros familiares, identifica productos, billetes, colores y mucho más. Toda esa información visual la transmite al usuario mediante una voz sintetizada en tiempo real, a través de un auricular de conducción ósea, sin necesidad de conexión a internet. Por ejemplo, al apuntar con el dedo hacia un documento o presionar un botón, OrCam lee en voz alta el menú de un restaurante, el titular del periódico o la etiqueta de un medicamento. Si alguien se acerca, el dispositivo puede decir discretamente el nombre de la persona (si ha sido aprendido antes) gracias a su función de reconocimiento facial. Todo esto sucede de forma prácticamente inmediata y permite a personas legalmente ciegas realizar tareas cotidianas con mucha más autonomía de la que permitían antiguamente las lupas o audiolibros. Un estudio clínico con usuarios de OrCam mostró que, sin usar ninguna ayuda, apenas podían completar 2 de cada 10 tareas visuales, mientras que con OrCam pasaron a completar casi 10 de cada 10 tareas, incluso después de solo una semana de uso. Los propios oftalmólogos califican esta tecnología de “nuevo paso evolutivo” que mejora la independencia y calidad de vida de las personas con baja visión.
Además de OrCam, existen apps móviles accesibles que cualquiera puede descargar en su smartphone para obtener descripciones sonoras del entorno usando la cámara. Un ejemplo es Seeing AI (creada por Microsoft), que emplea algoritmos de IA para “narrar” lo que ve la cámara del teléfono. Basta con enfocar hacia un objeto o texto y la app dirá qué es: puede leer documentos, escanear códigos de barras y decir de qué producto se trata, describir escenas e incluso identificar emociones en el rostro de una persona. Aplicaciones similares como Envision AI o Google Lookout también ofrecen funciones de reconocimiento de texto, objetos, colores, billetes y más, convirtiendo un simple móvil en un potente asistente visual. Muchas de estas apps son gratuitas o de bajo coste, democratizando el acceso a la ayuda tecnológica. También servicios como Be My Eyes aportan una capa de realidad aumentada humana: esta app conecta, vía vídeo en directo, a un usuario ciego con voluntarios videntes alrededor del mundo para que estos le describan qué aparece frente a su cámara (por ejemplo, para leer la fecha de caducidad de un alimento o decirle el número de puerta en un aeropuerto). La novedad es que ahora la inteligencia artificial está empezando a apoyar también aquí: Be My Eyes ha incorporado un “voluntario virtual” potenciado por GPT-4, capaz de interpretar imágenes y proporcionar asistencia con un nivel de detalle asombroso. En pruebas iniciales, esta IA ha resuelto tareas complejas muy por encima de otras herramientas de reconocimiento de imágenes, lo que sugiere que pronto podrá ofrecer ayuda casi equiparable a la de un humano. Por ejemplo, un usuario envió la foto de su nevera y el sistema no solo identificó cada alimento, sino que incluso sugirió recetas aprovechando esos ingredientes. En otro caso de éxito, un participante logró orientarse por sí mismo dentro de una estación de tren con la ayuda de esta IA: pudo averiguar en qué punto del mapa se encontraba y recibió indicaciones detalladas para llegar a su destino con seguridad. Este tipo de avances combinados de RA e IA abren puertas inmensas: desde leer documentos complejos hasta recibir guía en entornos digitales y físicos, todo con la asistencia virtual de un sistema inteligente disponible las 24 horas.
Gafas y dispositivos inteligentes: ampliando la visión residual
No todas las personas con discapacidad visual son totalmente ciegas; muchas tienen restos de visión que les permiten percibir luces, formas o colores. Para este colectivo de baja visión, la realidad aumentada ofrece soluciones enfocadas en potenciar al máximo la visión útil que conservan, mediante dispositivos tipo gafas electrónicas. La idea es proyectar o modificar las imágenes de tal forma que resulten más visibles para el usuario, mejorando su percepción del entorno.
En la Universidad de Oxford (Reino Unido), por ejemplo, se desarrollaron unas gafas inteligentes de RA dirigidas a personas con muy baja agudeza visual. Estas gafas especiales utilizan cámaras integradas y algoritmos avanzados para analizar en tiempo real la escena frontal, y luego presentan al usuario una versión aumentada de esa imagen adaptada a sus necesidades visuale. ¿Cómo logran esto? Mediante la exageración de ciertos detalles, resaltado de contornos y aumento de contraste en el visor de las gafas, de modo que obstáculos y elementos importantes destaquen claramente sobre el fondo. En esencia, simplifican la imagen y la hacen más fácil de ver para alguien con visión reducida, permitiendo por ejemplo distinguir mejor una pared de una puerta, o detectar personas en movimiento delante de ellos. Los ensayos mostraron que estos realces podían mejorar notablemente la visión funcional del usuario, devolviéndole la capacidad de orientarse y reconocer objetos grandes que antes solo percibía como sombras borrosas. Se trata de un magnífico ejemplo de cómo la RA puede compensar ciertas deficiencias visuales ajustando la realidad a la medida de cada persona.
En el ámbito comercial, empiezan a emerger dispositivos inspirados en esta idea. Una innovación reciente es el sistema eMacula de la compañía Innovega, dirigido sobre todo a personas con patologías como la degeneración macular. eMacula combina micro-pantallas montadas en unas gafas especiales con lentes de contacto inteligentes (llamadas iOptik) que actúan a modo de “filtro” en el ojo. La sinergia de ambos elementos permite proyectar imágenes ampliadas directamente en la retina con un amplio campo de visión. En pruebas realizadas en la Universidad Estatal de Ohio, se comprobó que usuarios con baja visión avanzada podían realizar mejor tanto tareas de cerca (leer, usar el móvil) como de lejos (ver señales, caras) utilizando este sistema. Básicamente, eMacula amplía y modifica la imagen que ve el usuario en tiempo real: por un lado magnifica las zonas centrales (para suplir la visión perdida en la mácula, típica en personas con degeneración macular), y por otro optimiza el contraste y la iluminación de la imagen captada por la cámara. Los resultados han sido prometedores, al punto de que este dispositivo está ya en vías de obtener la aprobación regulatoria en EE. UU. y podría convertirse en una ayuda habitual en los próximos años.
Otra línea a medio camino entre la RA y la accesibilidad son las gafas de realidad virtual adaptadas para baja visión. Algunos sistemas de realidad virtual inmersiva, como IrisVision o Vision Buddy, utilizan cascos VR comerciales modificados con software especial para personas con visión muy limitada. Funcionan a modo de visor electrónico: la cámara del casco captura el entorno real y lo muestra en las pantallas delante de los ojos, aplicando aumentos y filtros personalizables (contraste alto, falsos colores, zoom potente). Si bien técnicamente es realidad virtual (el usuario ve una imagen digital del mundo en vez de verlo directamente), el propósito es el mismo que la RA asistiva: hacer visible lo invisible. Un usuario con retinosis pigmentaria, por ejemplo, podría ampliar muchísimo la imagen para leer un letrero lejano, o invertir colores para ver mejor un texto. Estas soluciones ya están disponibles en algunos países y han dado historias emocionantes, como la de personas mayores que vuelven a leer el periódico o reconocer la cara de un ser querido tras años sin poder hacerlo. En España se empiezan a explorar también estas alternativas a través de clínicas especializadas en baja visión. Aunque aún son equipos costosos y engorrosos, la tecnología avanza rápido; no es descabellado pensar que en un futuro cercano tengamos gafas AR ligeras de uso diario para baja visión, del mismo modo que hoy existen audífonos discretos para la pérdida auditiva.
Innovación con sello español y colaborativo
Como hemos visto a lo largo de los ejemplos, España está contribuyendo notablemente al campo de la tiflotecnología (tecnología para personas ciegas). Organismos como la ONCE (Organización Nacional de Ciegos de España), a través de su centro CIDAT, han jugado un papel importante asesorando y validando soluciones como Lazzus o e-Glance, asegurando que realmente aborden las necesidades reales de los usuarios. Empresas tecnológicas españolas y centros de investigación se han volcado en proyectos inclusivos: Indra, por ejemplo, co-desarrolló e-Glance junto con la UPM dentro de su Cátedra de Tecnologías Accesibles. Startups como Neosentec en Asturias (Lazzus) o NaviLens (originada en Murcia/Alicante) han nacido directamente con la misión de empoderar a la comunidad con discapacidad visual. Incluso ideas ingeniosas surgidas de la experiencia personal, como el bastón Egara de Alarcón en Alicante, muestran cómo la innovación puede venir de la propia comunidad de personas con baja visión que buscan soluciones a problemas cotidianos.
Cabe destacar la colaboración interdisciplinar detrás de muchos de estos avances. En ellos confluyen ingenieros, expertos en visión artificial, ergonomía, psicólogos y, muy importante, los propios usuarios finales probando prototipos. Las pruebas piloto con personas ciegas han sido esenciales para iterar diseños: por ejemplo, e-Glance incorporó interfaces cognitivas de largo alcance tras constatar que así se detectaban más obstáculos sin abrumar al usuario; Lazzus añadió modos de uso diferentes tras recibir sugerencias directas en talleres con usuarios; Egara fue refinando la intensidad de vibración y el ángulo de detección de sus sensores mediante ensayo y error con voluntario. Esta co-creación con la comunidad garantiza que la tecnología final sea realmente útil, usable y bienvenida. También promueve una cultura de empatía tecnológica, donde los desarrolladores comprenden mejor las barreras diarias que enfrenta una persona con discapacidad visual, y así logran derribar mitos (por ejemplo, no toda ayuda tiene que ser visual; a veces la mejor solución es táctil o auditiva).
Por supuesto, en España no estamos solos en esta carrera: a nivel internacional hay una efervescencia de iniciativas de RA inclusiva. Grandes empresas tecnológicas han lanzado funciones de accesibilidad (como las capacidades de detección de entorno en dispositivos Apple con sensor LiDAR, que anuncian la presencia de puertas o describen personas cercanas). Comunidades de código abierto también aportan su grano de arena – por ejemplo, hay proyectos colaborativos para etiquetar el mundo con balizas Bluetooth o generar descripciones de imágenes en redes sociales (Facebook y Twitter han incorporado algo de esto) pensando en usuarios con lector de pantalla. Pero el hecho de que desde España surjan proyectos pioneros y se adopten tempranamente en espacios públicos (metro, autobuses, museos con guiado audio-RA, etc.) habla muy bien del compromiso local con la accesibilidad.
Reflexión final: tecnología para ver, tecnología para vivir
Los ejemplos analizados dejan una impresión clara y esperanzadora: la realidad aumentada, junto con la inteligencia artificial y otras tecnologías, se está convirtiendo en un gran igualador para las personas con discapacidad visual. Donde antes había muros infranqueables – no poder leer un cartel, perderse en un edificio desconocido, necesitar siempre ayuda para hacer la compra – hoy empiezan a abrirse ventanas de autonomía. Estas soluciones tecnológicas actúan como sentidos amplificados: cámaras que “ven” por el usuario, apps que hablan y describen lo que pasa alrededor, sensores que tocan el entorno más allá del alcance de un bastón. En definitiva, prótesis sensoriales digitales que aumentan las capacidades humanas sin sustituir la esencia de la persona.
El impacto social de todo ello es profundo. Para individuos con ceguera o baja visión, cada nueva herramienta puede suponer un cambio vital: moverse con menos miedo, acceder a un empleo que antes les cerraba sus puertas, disfrutar de una exposición de arte con descripciones en vivo, o simplemente elegir autónomamente qué producto comprar en el supermercado leyendo sus etiquetas con el móvil. Son mejoras en calidad de vida, en dignidad y en independencia. A nivel comunitario, cuando el transporte público, las ciudades o los servicios incorporan tecnología de accesibilidad aumentada (como NaviLens en el metro o las audioguías RA en museos), ganamos todos. Construimos ciudades más inteligentes y humanas a la vez, donde cualquier persona – vea o no vea – puede orientarse y participar plenamente. La RA inclusiva también sensibiliza al resto de la sociedad: esos códigos de colores en la estación o ese usuario con unas gafas futuristas leyendo un menú nos recuerdan que la innovación puede (y debe) tener un propósito social.
Por supuesto, no debemos olvidar que quedan desafíos. La brecha económica puede impedir el acceso a ciertos dispositivos costosos a quienes más los necesitan; la formación y el acompañamiento son clave para que la tecnología se adopte con confianza; y ninguna herramienta suple completamente el valor de la solidaridad humana – voluntarios, educadores, familiares que también apoyan día a día. Pero mirando el panorama general, la tendencia es alentadora. Cada año vemos dispositivos más asequibles, funciones de accesibilidad integradas de serie en nuestros teléfonos y ciudades más preocupadas por el diseño universal. La empatía y la ingeniería están caminando juntas.
En última instancia, la realidad aumentada aplicada a la discapacidad visual nos enseña algo fundamental: cuando la tecnología se pone al servicio de la inclusión, toda la sociedad avanza. Estas innovaciones no solo permiten ver mejor a quienes no ven; nos permiten vivir en una comunidad más justa, donde la autonomía y los sueños de cada persona (con o sin discapacidad) pueden realizarse con menos barreras. Y esa sí que es una realidad aumentada que vale la pena construir.
