Pasar al contenido principal

IA en América Latina: ¿Ciudades inteligentes o Estados de vigilancia?

AI
Tiempo de lectura: 6 min.

La inteligencia artificial (IA) promete una eficiencia sin precedentes, pero sin salvaguardias, amenaza con afianzar la desigualdad y empoderar el autoritarismo.

A medida que las ciudades implementan la inteligencia artificial a un ritmo vertiginoso, se enfrentan a una elección fundamental: ¿mejorará la IA la gobernanza democrática o digitalizará el control autoritario? Más del 80% de la población de América Latina vive en zonas urbanas, y en muchas ciudades, los ciudadanos exigen soluciones al crimen desenfrenado y a los servicios públicos deficientes. Para los líderes que enfrentan estas presiones, la IA parece ofrecer una "bala de plata": una solución aparentemente moderna y decisiva que proyecta una imagen de control y evita el trabajo lento y difícil de la reforma institucional.

La brecha de conectividad digital de $68.5 mil millones en América Latina —y su dependencia de infraestructura extranjera que profundiza la dependencia tecnológica— hace que sea especialmente tentador importar paquetes de vigilancia listos para usar en lugar de construir sistemas personalizados y respetuosos de los derechos. Pero cuando las ciudades se convierten en consumidoras de IA en lugar de creadoras, pierden tanto la capacidad técnica como el control democrático sobre los sistemas que dan forma a la vida de los ciudadanos.

La pregunta no es si las ciudades latinoamericanas deberían adoptar la IA, sino cómo aprovechar sus beneficios mientras se preservan las normas democráticas, se previene el abuso y se beneficia genuinamente a los ciudadanos. La buena noticia es que América Latina ya está produciendo modelos prometedores.

El panorama regulatorio añade otra capa de complejidad. Como ha argumentado Eduardo Levy Yeyati, América Latina tiene una estrecha ventana para desarrollar la gobernanza de la IA en sus propios términos, en lugar de convertirse en una "colonia regulatoria" de Silicon Valley o Bruselas. Mientras el panorama regulatorio global se polariza entre la desregulación de EE. UU. y la restricción europea, la región tiene la oportunidad de definir una "tercera vía" que equilibre la innovación con la protección de los derechos.

Esta urgencia regulatoria se basa en la experiencia regional concreta. A lo largo de cinco países, desde sistemas discriminatorios de reconocimiento facial en Brasil hasta la innovadora automatización legal PROMETEA de Argentina, América Latina ya ha sido testigo tanto de la promesa democrática de la IA como de sus peligros autoritarios. Los estudios de caso discutidos en este artículo revelan que la región no está empezando de cero: tiene lecciones del mundo real sobre lo que funciona, lo que falla y lo que está en juego cuando la gobernanza de la IA sale mal.

La IA en las ciudades de América Latina

La región se encontraba en una encrucijada de IA incluso antes de que grandes modelos de lenguaje como ChatGPT llegaran al mercado. Estas iniciativas de IA reflejan el complejo panorama tecnológico de la región, extrayendo de fuentes estadounidenses, chinas y cada vez más locales. Si bien algunos sistemas tempranos como PredPol de Uruguay vinieron directamente de instituciones estadounidenses y China ha promovido agresivamente tecnologías de vigilancia en toda la región, América Latina también ha fomentado la innovación propia.

  • El sistema PROMETEA de Argentina fue desarrollado enteramente por fiscales y tecnólogos locales.
  • El Proyecto MIRAI de Chile representa un modelo colaborativo, adaptando algoritmos de detección de cáncer de mama del MIT a datos y condiciones médicas locales.
  • La plataforma MAIIA de Colombia surgió de una asociación regional entre el Banco Interamericano de Desarrollo (BID) y desarrolladores locales.

Esta diversidad tecnológica refleja tensiones geopolíticas más amplias, ya que la región navega entre ecosistemas de IA competidores mientras construye capacidades indígenas.

Estudios de Caso: Promesa y Peligro

  • Río de Janeiro, Brasil: En 2019, la policía lanzó un programa piloto para usar tecnología de reconocimiento facial impulsada por IA, pero fue acosado por falsos positivos. Estos errores obstaculizaron las investigaciones policiales; en un caso de alto perfil, la policía detuvo a la mujer equivocada por asesinato debido a fallas en el reconocimiento facial. También perjudicaron desproporcionadamente a las comunidades afrodescendientes, ya que el 90% de las personas arrestadas a través del piloto eran negras.
  • Buenos Aires, Argentina (PROMETEA): Lanzado en 2017, automatiza la redacción rutinaria de documentos legales manteniendo a los abogados humanos a cargo de las decisiones finales. Redujo el tiempo de redacción de documentos de 90 minutos a un minuto, manteniendo rigurosas salvaguardias de derechos humanos a través de tres principios clave: códigos éticos estrictos; enfoque en tareas rutinarias que apoyan, no reemplazan, el juicio humano; y transparencia total con supervisión humana en cada punto de decisión. Este éxito inspiró sistemas similares como PretorIA de Colombia.
  • Barranquilla, Colombia (MAIIA): La plataforma MAIIA mapea asentamientos informales con un 85% de precisión, permitiendo a los planificadores ver dónde faltan servicios o dónde una nueva carretera podría conectar un barrio olvidado a la vida económica de la ciudad.
  • Santiago, Chile (Proyecto MIRAI): Utiliza la IA para analizar mamografías y predecir el riesgo de cáncer de mama.
  • Argentina (Kilimo): La startup ha ayudado a los agricultores a ahorrar 72 mil millones de litros de agua, mitigando el cambio climático.

Sin embargo, los tribunales de Buenos Aires comenzaron recientemente a eliminar gradualmente PROMETEA en favor de ChatGPT, citando tiempos de procesamiento más rápidos. La capital argentina está cambiando un sistema transparente y controlado localmente diseñado con salvaguardias de derechos humanos por un producto comercial que almacena datos en el extranjero, exhibe mayores tasas de error, opera como una "caja negra" sin transparencia y carece de una comprensión contextual de la ley argentina. Este cambio encarna el tipo de pensamiento de "solución rápida" tecnológica que socava la gobernanza democrática de la IA.

Investigaciones demuestran que los modelos de lenguaje pequeños y especializados son mucho más baratos y a menudo superan a los sistemas masivos de propósito general en las tareas repetitivas y especializadas que caracterizan el uso municipal de la IA.

Diseño intencional de la IA

Los sistemas de IA exitosos en la región comparten una filosofía centrada en el ser humano que complementa, en lugar de reemplazar, la toma de decisiones humana. Estos sistemas priorizan la transparencia e integran salvaguardias de derechos humanos desde el principio.

  • PROMETEA mantiene a los fiscales en control de las decisiones finales.
  • MAIIA equipa y empodera a los tomadores de decisiones humanas en la planificación urbana.
  • El Proyecto MIRAI combina explícitamente técnicas de IA con experiencia médica para identificar riesgos en lugar de hacer diagnósticos.

Los despliegues fallidos de IA suelen sufrir el enfoque opuesto: dependencia excesiva sin revisión humana adecuada, operaciones opacas y pensamiento de solución rápida.

  • El sistema descontinuado PredPol en Uruguay, que prometía predecir ubicaciones de delitos, no resultó ser mejor que los métodos tradicionales.
  • En la provincia de Salta, Argentina, una asociación con Microsoft para predecir embarazos adolescentes resultó en la vigilancia física de niñas identificadas como "alto riesgo" por agentes gubernamentales, quienes las fotografiaron y registraron sus coordenadas GPS, creando un aparato de vigilancia criticado por activistas.

Búsqueda de soluciones locales

Un marco de IA democrático que no ponga en peligro las libertades civiles es alcanzable. Las ciudades pueden implementar salvaguardias inmediatas, realizar pruebas piloto rigurosas y preservar una IA transparente y controlada localmente.

Prohibir tecnologías de alto riesgo cuando no cumplen con estos umbrales, como el reconocimiento facial o la policía predictiva, no es una postura anti-tecnología; es un muro de contención a favor de la democracia que preserva el espacio para la innovación legítima. Esto debe combinarse con una transparencia radical y registros públicos (siguiendo el modelo de la legislación propuesta en Chile) que detallen todos los sistemas de IA en uso.

Las ciudades pueden adoptar modelos tangibles para la supervisión, como la Evaluación Formal de Impacto Ético de la UNESCO. La Declaración de Montevideo y la Hoja de Ruta Regional para la IA, adoptadas en la Segunda Cumbre Ministerial de la UNESCO en 2023, son un buen comienzo. También pueden recurrir a iniciativas existentes como la asociación fAIr LAC del BID para compartir mejores prácticas y negociar colectivamente con los proveedores.

El avance de la IA es inevitable. Si causará más daño que bien depende de las políticas que la gobiernen.

El contenido del artículo de Americas Quarterly titulado "AI in Latin America: Smart Cities or Surveillance States?" fue traducido por Gemini.

https://americasquarterly.org/article/ai-in-latin-america-smart-cities-or-surveillance-states/