¿Cómo se construye una política estatal de inteligencia artificial (IA)? ¿Cómo construir sobre algo que avanza, se transforma y multiplica?
La Agencia de Gobierno Electrónico y Sociedad de la Información y del Conocimiento (Agesic) del gobierno uruguayo entregó el 28 de junio un documento al Parlamento con recomendaciones para la regulación de esta tecnología, tal como se lo encargó la Rendición de Cuentas pasada. La idea fue “hacer hincapié en los entornos”, dijo a la diaria el director ejecutivo de la Agesic, Hebert Paguas; ¿a qué se refiere con “entornos”? A los espacios en los que “la tecnología puede impactar y dónde habría que poner el ojo” para “hacer respetar los derechos de las personas, los derechos personales, o los derechos humanos”. Ahí entra a jugar “la explicabilidad algorítmica”.
El término es muy concreto: se trata de tener procesos y métodos que permitan saber con certeza cómo la IA llega a esos resultados. En este sentido, el texto de la Agesic comienza por recomendar la existencia “de una entidad de control” que tenga carácter “autónomo” y toman como ejemplo el Tribunal de Cuentas y la Corte Electoral. En otras palabras: garantizar la transparencia de la tecnología que usa IA y se aplica en el Estado.
El otro escollo está en la calidad de la inteligencia artificial. Según Paguas, existe una “dificultad” en poder llegar “a un porcentaje que te permita decir que estás ofreciendo un servicio con un grado de efectividad bueno”. Si el Estado uruguayo ofrece una tecnología que “se equivoca muchas veces, estoy haciendo mal”, es por eso que “los estados tampoco avanzan tan rápido en la opción de inteligencia artificial para brindar servicios directamente a los ciudadanos”. En el relevamiento hecho por la Agesic, se constató que 13 reparticiones del Estado utilizan IA, siempre de forma interna.
Legislación
La propuesta de legislación de la Agesic se adapta a los estándares internacionales que se han definido. Propone, entre otras cosas, establecer “de forma obligatoria” la “evaluación de impacto en los derechos humanos” cuando se incorpore IA a tareas gubernamentales, establecer un registro obligatorio a cargo de la entidad que se cree para regular la tecnología, tener un proceso de autorización o certificación, auditorías periódicas y la ya mencionada “explicabilidad algorítmica”.
Aun así, la legislación sobre IA, para Paguas, es trabajar sobre una tecnología que “el mundo está usando ya hace mucho”, aunque no se conociera antes con ese nombre, y ahí aparece “la dificultad de proteger a Juan Pérez, que viene usando todo lo que tiene en el teléfono hace muchísimo”, y cómo se evita que los gigantes tecnológicos que desarrollan las aplicaciones del teléfono “digan ‘no, mirá, tu legislación no me sirve, me voy’”.
La vigilancia por parte del Ministerio del Interior
Como una medida puntual, la Agesic “recomienda analizar, como parte del paquete de medidas a evaluar, la regulación del desarrollo, la adquisición y la aplicación de sistemas de vigilancia con fines de seguridad pública”, y lo hace por una “preocupación” concreta: la adquisición de sistemas de vigilancia con IA por parte del Ministerio del Interior a lo largo de este período.
“Basta con realizar una búsqueda en prensa para constatar que, en los últimos años, el Ministerio del Interior viene adquiriendo de forma sostenida nuevas tecnologías para combatir el crimen”, comienza el documento en uno de sus apartados. Destaca que estas adquisiciones “utilizan potentes sistemas de IA, ya sea para detectar disparos colocando micrófonos en la vía pública [como es el caso de la tecnología utilizada por Shotspotter] o para identificar a las personas basándose en patrones biométricos”.
De acuerdo con la Agesic, “ninguna de estas tecnologías se encuentra debidamente regulada por ley bajo los estándares reclamados por las diferentes relatorías del sistema internacional de derechos humanos”, por eso recomienda “la regulación del uso de la IA con fines de vigilancia por parte del Ministerio del Interior con carácter urgente”.
El ministerio, indica la agencia, construye desde hace un tiempo “un ecosistema de vigilancia automatizada en apoyo al cumplimiento de sus cometidos, basada tanto en IA como en otro tipo de sistemas”, y no ha sido acompañado “por la debida regulación ni por criterios de transparencia proactiva que aporten confianza sobre su funcionamiento”.
La Agesic enumera, además de Shotspotter, la tecnología de reconocimiento facial automatizado, el software Ucinet, que patrulla interacciones en redes sociales para detectar posibles grupos criminales, y la más reciente compra: un software de IA, instalado en unas 2.000 cámaras de videovigilancia, que permite detectar movimientos sospechosos o pedidos de auxilio y enviar una alerta. Todos –es bueno aclararlo– pasan por una revisión humana antes de enviar un móvil policial.
De todas formas, según Paguas, “hay mucha legislación en Uruguay que limita y protege derechos”; por ejemplo, en la ley de protección de datos personales (18.331) se regula y se da la posibilidad de impugnar los datos obtenidos mediante la “recolección automática”; si bien no menciona la IA –porque no era un término popular en ese momento–, sí se puede entender que este uso de la IA queda comprendido en la “recolección automática”.
Más allá de esto, el documento elaborado por la Agesic continúa: insiste en que “con el objetivo de establecer una regulación estricta sobre su uso” para así brindar “garantías contra los actos discriminatorios y contra su uso abusivo o arbitrario” se deberían introducir modificaciones “en el Código del Proceso Penal y en la Ley de Procedimiento Policial para regular el tema de forma adecuada”.
Esto incluye, por ejemplo, “la obligación de realizar un análisis de impacto (en lo posible público) sobre los derechos fundamentales” previo a adquirir IA “con fines de vigilancia”, así como establecer “líneas rojas en cuanto a qué usos están estrictamente prohibidos” y cuáles requieren una orden judicial.