Controlar la Inteligencia Artificial para los ciudadanos


Entre el temor a perder los puestos de trabajo, a ser engañados por una máquina, a olvidar los sentimientos que emanan de la comunicación y la ilusión de tener más tiempo para el ocio, a disponer de mayores bienes, a poseer mayor seguridad, los humanos dudan de la bondad de la inteligencia artificial. Un punto de riesgo parece evidente, a juzgar por los mensajes que casi cada día llegan a sus teléfonos celulares: soy Inteligencia Artificial, por favor no me cuelgue que le voy a dar información de su interés. Hoy, el ciudadano le corta casi inmediatamente, pero se augura que pronto muchos mensajes publicitarios serán así, incluso la recepción de reclamaciones o la petición de información.

Algunos autores auguran que se automatizará todo el trabajo rutinario y repetitivo de la administración pública en  gestión de recursos humanos, adquisiciones, subsidios, finanzas. Se espera que los funcionarios podrán dedicarse a tareas de mayor calificación gracias a la utilización masiva de procedimientos generados por la Inteligencia Artificial. (Louis Hyman, 2023)

El presidente Biden se ha reunido con los ocho representantes de las compañías más importantes (Microsoft, Google, ChatGPT, Amazon…) para acordar medidas como permitir que expertos independientes prueben sus sistemas antes de que sean lanzados al público, así como compartir sus datos con universidades y la administración. Además, los representantes de las empresas se comprometieron a alertar a los usuarios cuando una imagen ha sido creada por Inteligencia Artificial.

De hecho, en el estado de Nueva York se ha legislado para que los procedimientos de la IA sean revisados previamente por empresas certificadas que aseguren que los resultados no contienen sesgos discriminatorios. En los últimos años se ha comprobado que aspectos como la raza o los antecedentes de drogadicción han sido claramente discriminatorios.

Por su parte, la Unión Europea desarrolla una visión orientada a colocar a las personas en el centro de la Inteligencia Artificial, respetando la privacidad de los ciudadanos y facilitando nuevos negocios basados en los datos.

Al compás de los tiempos, el Centro Latinoamericano de Administración para el Desarrollo (CLAD) ha organizado en Cartagena de Indias una reunión auspiciada por la AECID española y CAF (Banco de Desarrollo de América Latina y el Caribe) con más de cincuenta expertos para debatir sobre un borrador de Carta de Inteligencia Artificial en la Administración Pública, elaborado por el profesor Ignacio Criado. Esta Carta pretende aprobarse en el Consejo Directivo de esta organización que se reunirá en noviembre, coincidiendo con el XXVIII Congreso Internacional que se celebrará en La Habana. El procedimiento de debate de las Cartas es dilatado, pero asegura el consenso de los 24 países miembros, pues no es aprobado sino por unanimidad. Ya son más de 10 las Cartas aprobadas por este organismo internacional que, aunque no tienen valor normativo, son utilizadas como base de las normas jurídicas y como elementos informadores de las decisiones en la materia.

En su articulado, la Carta define la Inteligencia Artificial como un tipo especial y disruptivo de tecnología de la información y comunicación, basada en la utilización de datos y algoritmos, capaz de generar aprendizaje y comportamiento considerado autónomo e inteligente, así como desarrollar tareas habitualmente consideradas humanas, incluyendo la percepción, el razonamiento y la acción.

La utilización de la Inteligencia Artificial en la administración pública puede generar diversos beneficios, como mejorar los procesos administrativos y los servicios públicos, perfeccionar los procesos de toma de decisiones, promover la cooperación intergubernamental, desarrollar la transparencia y el combate contra la corrupción, profundizar en las dinámicas participativas, avanzar en la colaboración con la ciudadanía y, finalmente, reforzar los sistemas democráticos mediante un uso responsable de los algoritmos.

Son numerosos los valores que señala el borrador de Carta, pero probablemente el más importante es aquel que pregona el principio de autonomía humana, que debe garantizar que los usuarios puedan mantener en todo momento el control sobre los datos utilizados, incluyendo su contexto y la capacidad para modificar su uso.

La Carta propone igualmente estrategias nacionales de inteligencia artificial que tengan especialmente en cuenta los valores democráticos, las opciones éticas y modelo de gobernanza de datos, así como su impacto en diferentes sectores sociales, económicos, así como la imprescindible colaboración con la academia y el sistema científico.

Finalmente, la Carta adelanta, la necesidad de que los países consideren tres niveles de riesgo de los algoritmos: bajo (aceptable), alto (aceptable / no aceptable) y extremo (no aceptable) y que en función de ellos ejerzan las acciones de control correspondiente.

Recomienda finalmente la Carta el establecimiento de sandboxes (areneros o espacios aislados) que son espacios de pruebas controlados por las autoridades, que supervisan el proceso para llevar a cabo el testeo de innovaciones y aprender sobre nuevas formas de abordar problemas públicos.

En fin, un ambicioso proyecto que esperemos pueda ser pronto aprobado por la Conferencia de Ministros de Administración Pública, para establecer caminos positivos de desarrollo de la Inteligencia Artificial en la Administración Pública en beneficio de los ciudadanos.

Artículo disponible en El Nacional.