La Presidencia española de la UE ha confiado a la secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, la dirección de la orquesta en la fase final de las negociaciones de la esperanza del reglamento europeo de inteligencia artificial (AI Act). La norma ordenará los usos y excepciones de esta tecnología con una investigación basada en los riesgos que plantea la población de cada persona. El alcalde seguramente adoptará más medidas de control para la aplicación o hasta su prohibición. Esta última categoría incluye actualmente los sistemas de inteligencia artificial (IA) que “manipulan”, aquellos que se utilizan para la clasificación social o la identificación biométrica a distancia o en tiempo real.
Las discusiones entre representantes del Parlamento Europeo ayudaron a limitar al máximo las oscuras posibles aplicaciones de la IA; Los Estados miembros, que quieren poder reproducirse en caso de emergencia, y la Comisión, están llevando a cabo estas negociaciones durante mucho tiempo y con delicadeza. “Tengan confianza en que podremos aprobar el reglamento durante esta presidencia (antes del 31 de diciembre)”, dijo el secretario de Estado.
Nacida en Vilassar de Mar hace 55 años, Artigas fue nombrado durante dos semanas copresidente de un consejo internacional de expertos de las Naciones Unidas encargado de preparar un mecanismo de gobernanza para la IA. Su colega en el grupo es James Manyika, vicepresidente de Google, una señal clara de que la industria debe estar presente en la discusión. La Secretaría de Estado recibe al PAÍS antes de volar a Londres en el marco de la seguridad de la IA, en los 28 países, entre EE UU y China, en cooperación para afrontar los riesgos de esta tecnología.
Pregunta. ¿Cuál es su responsabilidad en el nuevo asesor de la ONU?
Respuesta. Nuestro objetivo es analizar las oportunidades, riesgos e impacto que representa la IA para la sociedad y diseñar un mecanismo de gobernanza internacional para esta tecnología. Se trata de prestar atención a la importancia de la regularidad en la IA: debe coordinarse internacionalmente y debe participar en todo el mundo. En diciembre tendremos que desarrollar las primeras conclusiones que presentaremos en Nueva York. Es una oportunidad única para incidir en el proceso desde la visión que tenemos en España del humanismo tecnológico y desde la investigación europea, basada en la protección de derechos.
PAG. ¿Por qué cree que es necesario este mecanismo de gobernanza de la IA?
A. Hay muchos modelos, como el Organización Internacional de Energía Atómica o el Grupo Intergubernamental para el Cambio Climático (IPCC por sus siglas en inglés), en lo que respecta primero al consenso científico y luego a la intención de obtener una respuesta de los Estados. Hay que pensar que la IA tiene muchos puntos de vista diferentes: la visión de China no es la misma que la de Estados Unidos, pero también es la misma que la de Europa. Ahora tengo muchos foros internacionales sobre este tema. Este es el momento de la unificación, de la fortaleza de la industria.
PAG. La ONU importa mucho sobre la crisis climática y, sin embargo, el problema está lejos de resolverse. ¿Por qué tendemos a distinguirnos de la IA?
A. Exacto, tuvo una conversación con el copresidente sobre cómo nuestro trabajo no está en una serie de recomendaciones teóricas. Intentaremos aprender las mejores prácticas. El IPCC es un buen punto de partida, pero necesita mejoras. Buscamos un mecanismo que no sea un complejo de gestión de una agencia internacional y que tenga contactos con el mundo académico, porque la IA está evolucionando muy rápidamente.
PAG. ¿Cómo se puede iniciar una respuesta coordinada del país y la industria si sus intereses entran en conflicto?
A. Estados Unidos tiene su modelo de apoyo sin límites al desarrollo de su industria. China también. Europa era la tercera vía: creemos que el progreso tecnológico no puede estar impulsado por los derechos fundamentales. En principio este es nuestro caso, pero el surgimiento de ChatGPT ha permitido que en otras latitudes y en la propia industria se dependa de esta tecnología, en manos de los malos, puede tener efectos negativos. EE UU acaba de anunciar su orden ejecutiva. En Europa creemos que somos más transparentes, más transparentes que la tecnología limpia. En China, contrariamente a lo que podría pensarse, nos preocupan mucho ciertos límites, por ejemplo, a falsificaciones profundas. Algunos no pudieron realizarlo hasta 2023. Otros nos trajeron a trabajar con ellos a partir de 2020. Sólo por eso, ahora es el momento de resumir estas visiones.
PAG. ¿Es la regulación de la IA la forma de abordar este problema?
A. Estuvimos de acuerdo en esto. Nadie está involucrado, como nosotros, en una investigación basada en el impacto de esta tecnología en los derechos fundamentales, en los usos prohibidos de la IA. Más que establecer una norma o una norma jurídica o técnica, estamos en el proceso de definir una norma moral. Decidimos ante el mundo si esto será aceptable o no tendrá que ver con la IA. Por ejemplo, sé que algo se genera mediante IA generativa.
PAG. ¿Han acordado ya que casos serán los prohibidos y los de alto riesgo?
A. Este es el punto más importante del debate que estamos manteniendo. Necesitamos decidir cuáles son los requisitos de transparencia de procedimientos para los sistemas de alto nivel (lo cual está permitido pero con límites limitados) y cuáles son los requisitos de transparencia de procedimientos para los modelos fundamentales (que son utilizados por la IA generativa, como ChatGPT). El Parlamento Europeo ha solicitado ampliar el control del estándar también a la IA generativa, lo que inicialmente no estaba previsto. No tenemos ninguna tecnología regulatoria que no sea la que está en uso. Un martillo puede clavar un clavo o matar a alguien. De ahí para garantizar la seguridad, es que si pasa el segundo, el responsable pasa al penal.
PAG. Al ocupar la presidencia de la UE, España lidera las negociaciones entre la Comisión, el Consejo y el Parlamento. ¿Caminar bien?
A. Estamos escuchando muchas posiciones. Hemos definido muy bien qué son los sistemas de alto nivel y estamos intentando trabajar en este debate qué son los usos prohibidos. El Parlamento tiene una lista de aquellas que son excesivas y que, en determinados casos, pueden ser contrarias a la seguridad nacional de los Estados. Ahora hemos definido que se establecen garantías extraordinarias para que no pueda haber, por ejemplo, un abuso de poder por parte de un Estado en el uso de estas tecnologías. Tenemos límites, pero haz lo que quieras y no apoyes la innovación, y ese equilibrio es difícil. Creo que las normas las aprobamos durante la presidencia española.
PAG. ¿Cuáles son los problemas, sino todos los usos prohibidos?
A. Existen una serie de usos prohibidos acordados, como por ejemplo desguace (extracción de datos) a partir de imágenes tomadas por cámaras de vigilancia o sistemas de calificación de crédito social. Podemos encontrarle el punto justo al reconocimiento biométrico, salvo en determinados casos, como su uso en la investigación de algunos delitos graves. Nadie quiere que la policía o los gobiernos abusen de estas técnicas. Si este es el caso, le pedimos que ofrezca garantías de control adicionales. Este es ahora el centro del debate, pero no podemos revelar la solución que buscamos. Trabaja en el nivel jurídico, técnico y político. La función es muy alta porque nunca ha sido regulada en el mundo.
PAG. La tecnología está evolucionando muy rápidamente, como lo demuestra la aparición de ChatGPT. ¿Por qué el reglamento ya no está obsoleto?
A. La clave de esta regulación será quién supera el control del tiempo. Para hacer esto, debe poder actualizar. Creemos, por ejemplo, que los casos de uso de riesgo se pueden actualizar fácilmente. Habrá un mecanismo europeo de coordinación de las agencias nacionales de inteligencia artificial que revelará.
PAG. ¿Por qué existe una moratoria sobre la investigación de la IA?
A. El mapa (cientos de expertos contactados en marzo durante una pausa de algunos meses en la investigación de esta tecnología) ha recibido una atención especial por parte de la comunidad científica: estamos aquí desarrollando algo sin conocer su impacto real. Colocar el daño irreparable en un lugar muy grande, cuando pensamos que estamos sufriendo ya: los propios noticias falsasla sustitución de la identidad por falsificaciones profundas, la posibilidad de sus derechos, de la discriminación… Antes de hablar de los problemas existenciales de la humanidad, necesitamos saber qué está pasando hoy. Es imposible innovar; por eso debemos garantizar este progreso en la dirección correcta. Es necesario acelerar la innovación para que la propia industria encuentre una manera de resolver los problemas que ha creado.
Puedes seguir un EL PAÍS Tecnología fr. Facebook Sí X o haga clic aquí para recibir el nuestro boletín semanal.
Suscríbete para seguir el curso
Límites del pecado de Lee
_