El nuevo compromiso mundial por una inteligencia artificial «más ética»

Ocho reconocidas empresas tecnológicas firmaron junto a la Unesco un acuerdo para que los próximos desarrollos de IA incluyan un enfoque de derechos humanos.

Por Federico del Río

Feb 6, 2024

Desde que el Chat GPT irrumpió en el mundo, a fines de 2022, la Inteligencia Artificial (IA) ha estado constantemente en la agenda, con sus promesas y temores asociados a sus avances. Sin embargo, los Estados y otros actores importantes aún están tratando de ponerse al día y regular una revolución tecnológica cuyas implicaciones son difíciles de medir. En este contexto, ocho empresas líderes a nivel mundial, incluyendo a Microsoft y Telefónica, se comprometieron junto con la Unesco a construir una IA «más ética» en el marco del Foro Mundial organizado por la Unesco en la ciudad de Kranj, Eslovenia, que en su segunda edición tiene como lema «Cambiando el panorama de la gobernanza de la IA».

Audrey Azoulay, directora general de la Unesco, explicó que «estamos dando otro gran paso adelante al obtener el mismo compromiso concreto de las principales empresas tecnológicas mundiales, y hago un llamamiento a todas las partes interesadas del sector para que sigan su ejemplo, ya que una alianza entre las esferas públicas y privadas es esencial si queremos desarrollar la IA para el bien común». De todos modos, los interrogantes sobre la IA son muy amplios y numerosos. ¿Quién asume la responsabilidad si una IA perpetra el mal? ¿Qué tipo de sanciones deberían imponerse si los sistemas afectan derechos fundamentales como la privacidad? ¿Cuál debería ser el papel de los Estados y cómo pueden contribuir los actores privados?

Para abordar estas cuestiones, las ocho compañías firmaron un documento comprometiéndose a ajustar sus desarrollos en el área a los principios establecidos por Naciones Unidas en 2021, adoptados en ese momento por más de 190 Estados miembros. El objetivo es que todos los avances futuros en el campo de la IA sigan los principios éticos de la Unesco, basados en la «protección y promoción de los derechos humanos, la dignidad humana y garantizar la diversidad y la inclusión». Así, las organizaciones desarrolladoras de IA deben responder a parámetros que salvaguarden los intereses de las poblaciones.

Acuerdo tencológico y ético global

Además de Microsoft y Telefónica, otras seis compañías participaron en el acuerdo: GSMA, el grupo Lenovo, INNIT, LG AI Research, Salesforce y Mastercard. Según lo estipulado en el pacto, estas empresas se comprometen a «garantizar los derechos humanos en el diseño, desarrollo, compra, venta y uso de la IA», así como a «cumplir con las normas de seguridad e identificar los efectos adversos de la IA».

De acuerdo con la Unesco, las empresas deberán establecer «procedimientos de verificación para garantizar que se cumplan las normas de seguridad» y adoptar «medidas para prevenir, limitar o corregir los riesgos, de conformidad con las legislaciones nacionales». El acuerdo resalta la importancia de las pruebas ex ante, antes de que una IA se comercialice, así como la necesidad de prácticas de evaluación ex post, una vez que se implemente su uso.

Antecedentes similares

Este acuerdo se suma a otros intentos de regulación de la IA. En octubre de 2022, el gobierno de Joe Biden presentó una Carta de Derechos de Inteligencia Artificial, aunque no estableció acciones específicas de ejecución. En marzo de 2023, más de cien especialistas de diversas disciplinas se reunieron en el Encuentro Latinoamericano de Inteligencia Artificial para reflexionar sobre el tema desde una perspectiva de derechos humanos.

A mediados de 2023, el Parlamento Europeo aprobó una ley para controlar el uso de la IA en el continente, y el G7 también acordó un código de conducta para limitar las acciones de las empresas desarrolladoras de IA. A pesar de estos esfuerzos, los algoritmos creados por grupos poderosos continúan operando sin restricciones, lo que plantea interrogantes sobre el futuro de esta tecnología.

Noticias relacionadas

Seguí leyendo: