Cuáles son las últimas innovaciones y herramientas de accesibilidad para personas con discapacidad visual. El bastón y las gafas inteligentes, la evolución de la máquina de escritura, apps y funciones de Google y Microsoft, las más destacadas.
El 15 de octubre fue el Día Mundial del Bastón Blanco, en alusión a un elemento esencial para que personas ciegas o con baja visión puedan ser identificadas, entre otros fines. La conmemoración pretende concientizar sobre el derecho de las personas con discapacidad visual a desplazarse con independencia y seguridad.
El bastón constituye un elemento indispensable en cuanto a movilidad y forma parte de un ecosistema de accesibilidad fundamental. En este camino, la tiflotecnología (tiflo, en griego, ciego) se ocupa precisamente de investigar y encontrar soluciones para personas con discapacidad visual.
¿Qué tipo de innovación ha visto el bastón en los últimos años? “Siguen siendo los más utilizados los de rastreo plegables, que tienen tramos. También existen bastones con monteras giratorias por los desniveles: no todas las veredas son regulares, entonces lo que hace la bocha del bastón es girar para que la persona se desplace de forma más segura”, señala a Infobae Graciela Morel, vicedirectora de ASAC (Asociación de Ayuda al Ciego).
Como innovación tecnológica destaca WeWalk. Es un bastón inteligente con asistente de voz desarrollado en Turquía, compatible con Google Maps. Ayuda a personas ciegas a navegar por su entorno de una manera más eficiente cuando están solas. El dispositivo puede detectar obstáculos que están por encima de los niveles del pecho y la cabeza a través de un sensor ultrasónico.
Finalmente, Morel destaca que en la Argentina se creó, bajo protocolos internacionales, la escuela de Perros Guía Argentinos. “La persona va a ser usuaria del perro, pero teniendo las competencias y habilidades del uso del bastón. El perro guía no reemplaza al bastón. Y pensemos que no es solo bastón blanco, está el bastón verde para las personas con baja visión: es decir, no son ciegas y en ciertas ocasiones requieren el uso de un bastón”, aclara.
La evolución de la máquina de lectura
“La Argentina fue el primer país de Latinoamérica que incorporó las máquinas de lectura, Open Book, Galileo y Excalibur. También el software de lectura de pantalla JAWS y HALvigentes, con actualizaciones hasta la fecha”, dice a Infobae Rubén Luis Battipede, titular de Tecnoayudas, que ofrece soluciones de tiflotecnología hace más de 26 años.
Estos programas permiten que una persona ciega o con baja visión pueda acceder plenamente al uso de la PC o notebook. “Es la herramienta para el estudio, el trabajo y el esparcimiento de mayor importancia, surgida en los últimos 30 años”, asegura Battipede.
Según explica, en 1994 la máquina de lectura estaba conformada por una CPU, con el programa DOS, un escáner de cama plana y un sintetizador de voz (CIBER de España o APOLO de Reino Unido).
“Esto último funcionó hasta la aparición de CPU con placa de sonido incorporado. Se instalaba un software llamado Open Book, que aún subsiste con sus actualizaciones. Open Book tenía un OCR (Reconocedor Óptico de Caracteres), que tenía la capacidad de convertir letras o caracteres gráficos en general, en palabras, lo que generaba una enorme utilidad para quienes estaban impedidos de la lectura visual. Recuerdo que todo esto apenas podía colocarse en el baúl de un auto mediano”, agrega Battipede.
La máquina, una vez colocada la página impresa que se deseaba escuchar, entregaba la lectura en uno o dos minutos, debido al tiempo de procesamiento. Luego se iniciaba la lectura parlante .
“La voz, era francamente extraña y poco agradable. Un especie de robot, que no superaba la prueba mínima de alcoholemia”, finaliza Battipede.
Accesibilidad: herramientas de Google y Microsoft
Chrome tiene lector de pantallas (o screen readers) a través de la extensión ChromeVox Classic Extension. Así, es posible tener acceso al contenido web con una devolución en voz alta.
Existen sitios que tienen imágenes o gráficos sin descripción. Para estos casos, Chrome agregó una funcionalidad que describe las imágenes en voz alta. Según el sistema operativo, varían los pasos que hay que seguir, aunque está solo disponible en inglés.
Por su parte, Google Maps tiene una función, solo en inglés en Estados Unidos y en japonés, que sirve de guía por voz para ayudar a personas con limitaciones visuales o ciegas. La idea de la compañía es extender esta función a otros idiomas.
La app de Google, Voice Access, permite controlar el dispositivo mediante comandos de voz y con el Asistente de Google. Entre otras cosas, permite abrir aplicaciones, desplazarse y editar texto sin utilizar las manos. Está disponible solo para Android.
En el caso de Microsoft, la compañía encabeza el proyecto de investigación Soundscape. Funciona con auriculares y un celular que, mediante sensores, rastrea los movimientos y la actividad de la persona y le indica automáticamente, a través señales de audio 3D, los puntos de interés o calles por los que está transitando.
También, tiene una app para describir personas, textos y objetos, denominada Seeing AI. Por el momento, solo se encuentra disponible para iOS. Para Windows 10 se integran funciones como Lupa (amplifica toda o parte de la pantalla para poder ver mejor las palabras e imágenes) y reconocimiento de voz, con un narrador que lee en voz alta el texto de la pantalla y describe eventos, como notificaciones y citas en el calendario.
Por su parte, y entre varias funciones de estas herramientas, Office 365 cuenta con lectura en voz alta y dictado (convierte las palabras habladas en texto).
Gafas inteligentes
La Argentina fue el primer país de habla hispana que incorporó Orcam MyEye en idioma español. Estas gafas han sido desarrolladas en Israel y permiten leer en voz sintetizada y de forma instantánea textos impresos o digitales. Solo es necesario dirigir la vista hacia el objetivo o señalarlo con el dedo. Tiene una batería recargable, que dura hasta 2 horas.
Estos dispositivos poseen una cámara que captura las imágenes de video que el usuario tiene delante. El software procesa dichas imágenes previamente personalizadas para cada usuario y calibradas por un especialista. Las imágenes las presentará en tiempo real dentro de las pantallas de las gafas.