Durante la cuarta edición de la #SemanaIA de ILDA tuvimos el webinar «Reprogramando el futuro: IA, justicia y resistencia», el cual reunió a dos investigadoras y activistas que trabajan en clave latinoamericana para pensar qué significa y qué riesgos conlleva introducir herramientas de inteligencia artificial en contextos marcados por desigualdades históricas. La conversación contó con la participación de Nina da Hora (Brasil) y Mariel García Montes (México), moderada por nuestra directora Gloria Guerrero (ILDA) en donde se abordaron problemas actuales con ejemplos concretos hasta propuestas prácticas para construir datos, políticas y prácticas que prioricen la justicia social.
Biometría, vigilancia y daños reales
La conversación arrancó con ejemplos sobre cómo la biometría ya opera como dispositivo de control: reconocimiento facial, huellas y otros sistemas que se aplican en seguridad pública, servicios y trámites. Lo que parecía una promesa de eficiencia termina por profundizar desigualdades; personas racializadas, comunidades trans e indígenas y activistas son las primeras afectadas por errores, detenciones injustas o acceso a servicios denegados. Estos impactos no son accidentales, provienen de datasets incompletos, de decisiones de diseño hechas lejos de los territorios y de una narrativa pública que tiende a creer que «la máquina no se equivoca».
Extracción de datos y colonialismo digital
Uno de los ejes clave del webinar fue la crítica a lo que las panelistas llamaron una promesa colonial de la tecnología: la tecnología llega a nuestra región como la solución, pero opera extrayendo recursos naturales (minerales como el litio) y elementos como datos, imágenes y voces, sin reconocimiento a la propiedad colectiva ni el consentimiento adecuados. En contextos latinoamericanos, esa extracción se combina con intereses económicos y políticos que transforman a personas y territorios en fuentes explotables de información. Además, las herramientas desarrolladas en el norte global fallan al desplegarse aquí: no reconocen identidades locales, invisibilizan experiencias y reproducen sesgos estructurales.
Iniciativas que resisten desde adentro
Frente a ese panorama, las participantes compartieron iniciativas que muestran caminos posibles: proyectos que usan visión computacional o análisis de lenguaje para localizar personas desaparecidas, monitorear violencia de género o documentar prácticas discriminatorias en servicios públicos y procesos de acceso a la justicia. Estas experiencias demuestran que es posible usar la IA puede como herramienta de cuidado y respaldo cuando la comunidad está en el centro del diseño.
Ese trabajo, sin embargo, exige construir datos propios, con calidad y contexto, y pensar la infraestructura más allá de pilotos ajenos y desconectados de las realidades latinoamericanas. No basta con corregir un modelo, hay que intervenir en la cadena de valor completa: quién financia, qué métricas importan, cómo se almacenan y gobiernan los datos y quién tiene voz en esos procesos.
Formación, participación y gobernanza adaptativa
Otro tema recurrente fue la necesidad de pedagogía y participación real. Desmitificar la IA, es decir, explicar cómo funciona, qué suposiciones trae y dónde falla, es clave para que tomadores de decisiones, periodistas y la población general no entreguen autoridad automática a decisiones algorítmicas. En simultáneo, la inclusión efectiva de organizaciones de la sociedad civil y comunidades afectadas en mesas de trabajo donde se deciden las regulaciones no puede ser simbólica, tiene que implicar recursos, tiempo y poder para incidir en el diseño y el despliegue.
Sobre la gobernanza, las panelistas defendieron modelos adaptativos: regulaciones y mecanismos de control que evolucionen con la tecnología y con las realidades sociales. No se trata solo de leyes rígidas, sino de procesos que permitan revisiones, auditorías comunitarias, transparencia y remedios accesibles cuando la tecnología causa daño.
Reapropiarnos de la tecnología como decisión política
Las conclusiones del webinar se articularon alrededor de algunas líneas prácticas: priorizar regulaciones que respondan a daños ya ocurridos, promover financiamiento regional y colaboración entre gobiernos, universidades y organizaciones, invertir en la construcción de datasets representativos, contextualizados y de calidad, así comofortalecer la alfabetización digital para que las comunidades comprendan y decidan cómo se gestionan sus datos.
La idea que cerró este conversatorio fue sencilla pero potente: la IA no es un ente neutro ni inevitable, sino el resultado de decisiones políticas y técnicas que podemos y debemos disputar. Reprogramar el futuro implica devolverle a las comunidades la capacidad de decidir para qué y para quién se diseñan las tecnologías, y construir herramientas que incrementen justicia y cuidado, no control y exclusión.
Escucha la charla completa
Si quieres profundizar en los ejemplos y recomendaciones que compartieron Nina, Mariel y Gloria, puedes escuchar la grabación completa del webinar aquí.