FeelIT 2.0 — Banco de Trabajo Háptico de Accesibilidad
Banco de trabajo háptico web de accesibilidad que permite a usuarios con discapacidad visual explorar objetos 3D mediante tacto, leer texto Braille en entornos 3D inmersivos y navegar un escritorio háptico. La realización moderna de una visión iniciada en 2008.
Contexto de Negocio
La accesibilidad táctil sigue siendo una de las áreas más desatendidas en tecnología asistiva. Los lectores de pantalla y las descripciones de audio dominan el campo, pero el audio solo no puede transmitir relaciones espaciales, geometría tridimensional ni la textura física de los objetos. Un usuario ciego puede escuchar la descripción de una escultura, pero no puede comprender su forma solo a través de palabras. El proyecto FeelIT original (2008-2012) intentó resolver esto con hardware físico — una pantalla táctil de pines — pero fue congelado cuando las limitaciones de miniaturización y costo resultaron insuperables.
Valor Estratégico
FeelIT 2.0 resucita la visión original de accesibilidad con un enfoque puramente de software — Python/FastAPI + Three.js reemplazando Windows Forms + OpenGL. La abstracción de backend háptico conectable significa que el sistema funciona inmediatamente sin hardware especializado (emulación de stylus por teclado), mientras permanece listo para dispositivos hápticos físicos cuando estén disponibles. Cuatro espacios de trabajo integrados (Explorador 3D, Lector Braille, Escritorio Háptico, Gestor de Espacios) proveen un enfoque estructurado y multi-modal a la interacción táctil que ninguna tecnología asistiva existente ofrece. El piloto háptico de abril 2026 validó que la integración de hardware no requirió cambios en la plataforma central.
El Desafío
La accesibilidad táctil sigue desatendida. Los lectores de pantalla y descripciones de audio dominan la tecnología asistiva, pero el audio solo no puede transmitir relaciones espaciales, formas 3D o textura física de objetos. El FeelIT original (2008-2012) fue congelado cuando la miniaturización del hardware hizo impracticable la pantalla de pin-array.
Nuestro Enfoque
Cuatro espacios de trabajo integrados: Explorador de Objetos 3D (8 perfiles de material táctil, stylus controlado por teclado), Lector Braille (biblioteca 3D nativa con soporte ASCII completo + caracteres acentuados), Escritorio Háptico (lanzador de espacios de trabajo para modelos, textos, audio), y Gestor de Espacios (auto-poblado desde carpetas externas). Abstracción de backend háptico conectable que soporta backend nulo para solo visual e interfaz lista para hardware.
Indicadores Clave de Rendimiento
| KPI | Línea Base | Resultado | Impacto |
|---|---|---|---|
| Acceso a Información Espacial | Solo descripciones verbales | Exploración 3D táctil directa | Comprensión de formas sin visión |
| Lectura Braille | Texto lineal, sin contexto espacial | Braille nativo en escena 3D con navegación | Experiencia de lectura inmersiva |
| Dependencia de Hardware | Dispositivo específico requerido | Backend nulo — funciona sin dispositivo háptico | Usabilidad inmediata |
Arquitectura
feelit2 arch
feelit2 braille
feelit2 legacy mapping
feelit2 modes
feelit2 problem
Stack Tecnológico
Capturas de la Aplicación



