Para poder enviar candidaturas a retos, completa tu perfil de empresa.
Caso de uso

NeuroSight: traducción inteligente de imágenes a patrones visuales tipo fosfenos para ciegos

Contexto

Problema

Requisitos de integración

Solución propuesta

Impacto

Aplicaciones destacadas

NeuroSight: traducción inteligente de imágenes a patrones visuales tipo fosfenos para ciegos Real
Los cambios se han guardado correctamente.
Algo ha salido mal, por favor contáctanos en info@opengovtech.es
Caso de uso

NeuroSight: traducción inteligente de imágenes a patrones visuales tipo fosfenos para ciegos

Tipo de caso

Real

Contexto

El proyecto consiste en un sistema capaz de transformar imágenes reales en representaciones visuales simplificadas tipo fosfenos. Estas representaciones se generan mediante matrices de activación que pueden servir como base para simular cómo podría percibirse una escena con sistemas de visión protésica, gafas asistivas o futuras interfaces de estimulación visual.


Actualmente contamos con un prototipo funcional en Python que procesa imágenes, reduce su complejidad, genera matrices de activación y permite comparar diferentes estrategias de simplificación visual. El objetivo del proyecto es validar qué tipo de información visual debe conservarse cuando la resolución disponible es muy limitada.


El proyecto no se presenta como un dispositivo médico final, sino como una capa software de traducción visual que puede evolucionar hacia herramientas de simulación, asistencia o integración con sistemas de visión artificial.

Problema

Las personas con ceguera o pérdida severa de visión tienen dificultades para acceder a información visual crítica del entorno, como obstáculos, personas, puertas, vehículos, señales, textos o cambios de iluminación.


En sistemas de visión protésica o asistencia visual avanzada, uno de los grandes retos no es únicamente capturar una imagen, sino decidir qué parte de esa imagen merece transmitirse al usuario cuando la resolución disponible es extremadamente baja.


Una escena real contiene demasiada información visual. Si se traduce directamente a puntos, píxeles o estímulos, el resultado puede ser confuso, ruidoso y poco útil. Por eso es necesario crear sistemas capaces de simplificar, priorizar y codificar la información visual de forma comprensible.


El problema que abordamos es cómo convertir una escena compleja del mundo real en un patrón visual mínimo, interpretable y útil para una persona con visión muy reducida o percepción artificial limitada.

Requisitos de integración

El MVP parte de imágenes como entrada y genera como salida matrices de activación visual. Para evolucionar hacia una solución más avanzada, el sistema debería integrarse progresivamente con cámaras, vídeo en tiempo real, modelos de inteligencia artificial y simuladores de percepción visual.


Los principales requisitos de integración son:


- Fuente de imagen o vídeo, como una cámara, móvil o gafas inteligentes.

- Procesamiento visual en Python.

- Conversión de la imagen a una matriz de activación.

- Exportación de la salida en formatos reutilizables para análisis, simulación o integración externa.

- Adaptación futura a simuladores como pulse2percept.

- Posible integración con modelos de detección de objetos, reconocimiento de texto y texto a voz.

- Evaluación de diferentes estrategias de codificación visual según el contexto de uso.


En fases posteriores, la salida podría adaptarse a modelos concretos de electrodos, dispositivos hápticos, audio espacial o sistemas de asistencia visual multimodal.

Solución propuesta

Proponemos una capa software que actúa como traductor entre una imagen real y una representación visual simplificada tipo fosfenos.


El sistema toma una imagen, reduce su complejidad y genera una matriz de activación que conserva los elementos visuales más relevantes. En lugar de intentar transmitir toda la escena, el software prioriza la información que puede resultar más útil para la orientación, la movilidad y la interpretación básica del entorno.


El MVP permite experimentar con distintas formas de codificación visual, como reducción de resolución, umbralización, detección de bordes, simplificación por intensidad y generación de patrones tipo fosfenos.


La evolución natural del proyecto es incorporar inteligencia artificial para que el sistema pueda adaptarse al contexto. Por ejemplo, destacar obstáculos en movimiento, reconocer personas, detectar puertas o pasos de peatones, ajustar el contraste según interior o exterior y leer texto mediante voz cuando se identifique información escrita.


La arquitectura conceptual es:


imagen o vídeo → análisis visual → simplificación inteligente → matriz de activación → simulación de percepto → asistencia al usuario o integración futura

Impacto

El impacto potencial del proyecto se sitúa en la mejora de la autonomía, seguridad y acceso a la información de personas con ceguera o baja visión.


Aunque el MVP se encuentra en una fase inicial, permite explorar una cuestión clave en accesibilidad visual avanzada: cómo traducir el mundo visual a una señal mínima, clara y útil cuando la percepción disponible es limitada.


El proyecto puede aportar valor en varios niveles:


- Como herramienta de investigación para probar estrategias de codificación visual.

- Como prototipo de software para simulación de visión protésica.

- Como base para soluciones de asistencia visual mediante gafas inteligentes.

- Como sistema de apoyo multimodal combinando imagen, audio y patrones visuales simplificados.

- Como tecnología aplicable en entornos públicos, sanitarios, educativos y de movilidad.


A medio plazo, una solución de este tipo podría ayudar a reducir barreras de accesibilidad, mejorar la orientación en espacios complejos y facilitar la interacción con información visual cotidiana.

Aplicaciones destacadas

- Asistencia visual para personas con ceguera o baja visión.

- Simulación de visión protésica mediante patrones tipo fosfenos.

- Software de preprocesamiento para sistemas de visión artificial de baja resolución.

- Gafas inteligentes orientadas a accesibilidad.

- Traducción de escenas reales a información visual simplificada.

- Detección y priorización de obstáculos, personas, puertas, vehículos y señales.

- Lectura de texto mediante integración con reconocimiento óptico y voz.

- Investigación en neurotecnología, interfaces cerebro-máquina y percepción artificial.

- Evaluación de estrategias de codificación visual antes de su integración con hardware.

- Soluciones de asistencia en movilidad, orientación y comprensión del entorno.