Ayudando a personas con discapacidad visual a percibir mejor con V-Assistant
El pasado 3 de octubre, el MIL fue escenario de la presentación de un innovador proyecto tecnológico con impacto social. V-Assistant, startup creada por Matin Khakpour y Moeen Valipoor, está centrada en mejorar la interacción de personas con discapacidad visual con su entorno mediante una aplicación asistida por IA.
Patricia Sarasola, jefa del Departamento de Innovación Tecnológica del Ayuntamiento de Madrid, dio inicio al evento destacando la misión del MIL de impulsar el ecosistema tecnológico, con especial foco en las startups dedicadas a la inteligencia artificial y las nuevas tecnologías.
Tecnología de vanguardia accesible
Matin Khakpour comenzó su intervención explicando que uno de los principales problemas que enfrentan las personas con discapacidad visual es la dificultad para identificar objetos en su entorno. Con más de 1.300 millones de personas en el mundo con alguna forma de discapacidad visual, las soluciones tradicionales, como los perros guía, no siempre son viables debido a su elevado coste.
Por ello, decidieron crear una aplicación que proporcione autonomía a este colectivo a un coste menor. Su herramienta, utilizando modelos avanzados de visión por computadora, permite a los usuarios identificar objetos, recibir descripciones detalladas de su entorno y navegar con mayor seguridad.
Además, el asistente puede operar en dos modalidades: online y offline. En la modalidad online, el sistema captura imágenes a través del teléfono móvil del usuario, las procesa en la nube y devuelve una descripción en formato de audio. Este modelo en la nube ofrece respuestas más detalladas y precisas, permitiendo incluso que los usuarios hagan preguntas específicas sobre las imágenes capturadas. La versión offline, en cambio, funciona sin conexión a internet, detectando objetos comunes y ofreciendo navegación básica dentro del entorno.
En definitiva, el equipo mostró cómo V-Assistant utiliza tecnologías avanzadas de reconocimiento de objetos y procesamiento de imágenes para ayudar a los usuarios a moverse por su entorno. La aplicación cuenta con una interfaz sencilla, adecuada para quienes no pueden ver la pantalla del dispositivo, y ofrece tres funciones clave: escanear escenas, localizar objetos y responder preguntas.
Expansión a nuevas plataformas y dispositivos
V-Assistant se distingue por su capacidad de personalización y adaptabilidad a entornos específicos, como supermercados o aeropuertos. Este enfoque permite que el modelo se entrene con bases de datos específicas, mejorando la precisión en la identificación de objetos.
Matin Khakpour también habló sobre la futura expansión de la aplicación a iOS, destacando que el uso de características específicas del iPhone, como sus sensores de distancia, podría mejorar aún más la experiencia del usuario. Además, mencionó el desarrollo de un dispositivo complementario en forma de gafas inteligentes con cámara integrada. Estas gafas permitirán a los usuarios liberar sus manos, haciendo que la navegación sea más cómoda y eficiente.
Próximos pasos: Pilotos y modelo de suscripción
Tras las pruebas piloto realizadas con usuarios con discapacidad visual, el equipo de V-Assistant ha realizado mejoras significativas en la aplicación. El siguiente paso, según contó Khakpour, es lanzar una versión beta con una opción de suscripción mensual. Este modelo permitirá que tanto usuarios individuales como organizaciones sin fines de lucro puedan acceder a todas las funciones del asistente, garantizando una mayor accesibilidad global.
En resumen, V-Assistant se presenta como una herramienta revolucionaria que no solo pretende mejorar la calidad de vida de las personas con discapacidad visual, sino que también ofrece una plataforma tecnológica escalable para futuras aplicaciones industriales y comerciales, como por ejemplo, la detección de defectos en productos. Con un enfoque claro en la inclusión y el uso práctico de la inteligencia artificial, V-Assistant está en camino de transformar la forma en que las personas interactúan con su entorno, brindando independencia y autonomía a quienes más lo necesitan.
¡Si no pudiste asistir al evento, puedes revivirlo en el siguiente vídeo de nuestro canal de YouTube!