Estimaciones del señor Macron, la señora Meloni, el señor Scholz y el señor Sánchez (como presidente de la torre):
Estamos ante un punto crítico en la vida de la Propuesta de Reglamento de IA. En la fase del trilogo, esta regulación se ve amenazada por lo que vemos como una oposición equívoca de nuestros funcionarios gubernamentales, a favor de la autorregulación por parte de empresas que desarrollan modelos fundamentales de IA (como ChatGPT y Bard). Esto significa que las empresas deben adherirse a sus propios códigos de conducta, en lugar de estar reguladas directamente por organismos oficiales. Este cambio de investigación es para volver a la aprobación del Reglamento sobre IA, por lo que todos lo tendremos en cuenta en las próximas elecciones al Parlamento de la UE previstas para junio. Y esto es lo más grave, podría garantizar su eficacia y plantear graves riesgos para los derechos de los ciudadanos europeos y la innovación europea. A diferencia de una solicitud de autorización, iniciamos a todas las partes involucradas en el trilogo para que aprueben la regulación de IA lo antes posible. A continuación, explicamos tres razones clave para aprobar el Reglamento sobre IA en su forma original.
Las empresas no deberían tener las reglas por sí mismas
Los códigos de conducta, incluidos los obligatorios, son insuficientes e ineficaces. Cuando a las empresas se les permite priorizar su seguridad pública y sus beneficios económicos. Tampoco es claro a la hora de supervisar el desarrollo y la aplicación de estos códigos de conducta, así como el grado de rendición de cuentas. Este acuerdo premia a las empresas que no invierten su tiempo y recurren a códigos de conducta estrictos, en detrimento de quienes están presentes.
Esto también representa una ventaja para la industria de la IA, ya que las empresas ya tienen una sombra incierta sobre qué productos y servicios están permitidos en el mercado y pueden exponerse a múltiples personas al lanzarlos al mercado. Es posible que sea posible remediar las incertidumbres con normas directas un día que se apruebe el reglamento, limitando así el debate parlamentario. Finalmente, si cada empresa o sector desarrolla sus propias reglas, el resultado puede ser un confuso mosaico de normas, lo que aumenta la carga de supervisión para el regulador, pero también hace más difícil para las empresas cumplir con los códigos, obstruyendo así tanto la innovación como la innovación. un complemento. Esto va en contra de uno de los objetivos fundamentales del Reglamento sobre IA, que es armonizar los estándares en toda la UE.
La guía de la UE para la regulación de la IA
La oposición actual de Francia, Italia y Alemania a los modelos fundamentales de IA está socavando la guía de la UE para la regulación de la IA. La UE está a la vanguardia, responsable de desarrollar estándares que garanticen que la tecnología sea segura y justa para todo. Pero esa venta podría perderse si no se lanza rápidamente y se abordan los desafíos normativos pendientes. Una UE indecisa perderá su mercado competitivo frente a países como Estados Unidos. o China. Los ciudadanos europeos corren el riesgo de utilizar productos de IA regulados según valores y agendas no alineadas con los principios europeos.
El costo de la IA no regular
El seguimiento de la regulación de la IA tiene un costo significativo. Normalmente, los ciudadanos son vulnerables a aplicaciones de IA que no responden a los intereses públicos. Se trata de una regulación deficiente que deja la puerta abierta al mal uso o abuso de las tecnologías de IA. Las consecuencias son graves e incluyen violaciones de la privacidad, la ley, la discriminación y las medidas de seguridad nacional en áreas críticas como la salud, el transporte y la aplicación de la ley. Desde una perspectiva económica, las aplicaciones de IA no reguladas pueden distorsionar la competencia y la dinámica del mercado, creando un campo de juego único para empresas poderosas y bien financiadas. Es un error pensar que la regulación va en contra de la innovación: sólo a través de la regulación y, por tanto, de la competencia se puede hacer que la innovación florezca, en beneficio de los mercados, las sociedades y las empresas. Sólo con una mejor regulación se puede conseguir más innovación.
En conclusión, la regulación de la IA es aún más una ley simple. Es una declaración sobre los valores que nosotros, como europeos, queremos promover y qué tipo de sociedad queremos construir. Implementar y garantizar la identidad y reputación de la UE. Esto podría mejorar la credibilidad y el papel de liderazgo de la UE en la comunidad mundial de IA.
Por todo ello, cinco años después de la publicación de Marco Ético por una Buena Sociedad de IA de AI4People, el trabajo inicial del Grupo Alto Nivel de la Comisión Europea sobre IA se ha afianzado en las instituciones de la UE y los estados han comenzado a encontrar un compromiso que preserve la integridad y la ambición de la regulación de la IA. Permitan que esta legislación sea un líder responsable y ético en IA, que sirva como ejemplo global para que otros la firmen.
La tarjeta es confirmada por:
Luciano FloridiDirector fundador del Centro de Ética Digital de la Universidad de Yale y presidente de Atomium-EISMD.
Miguel Ángel Baracchi BonviciniPresidente del Comité Científico del Instituto AI4People y Presidente del Instituto AI4People.
Raja ChatilaProfesor emérito de inteligencia artificial, robótica e informática en la Universidad de la Sorbona.
Patrice ChazerandDirector de Asuntos Públicos de AI4People Institute y exdirector de Asuntos Públicos Digitales de Europa.
Donald Combsvicepresidente y decano de la Escuela de Profesiones Sanitarias del Eastern Virginia Medical School.
Bianca De Teffe’ErbDirector de Tecnología de Datos y IA en Deloitte.
virginie dignumCatedrática de Inteligencia Artificial Responsable, Universidad de Umeå y Miembro del Consejo Asesor de Alto Nivel de las Naciones Unidas sobre Inteligencia Artificial.
Ronan KennedyProfesor Asociado, Facultad de Derecho, Universidad de Galway.
Roberto MadelinPresidente del Consejo Asesor del Instituto AI4People.
Claudio Novelliinvestigador postdoctoral, Departamento de Estudios Jurídicos de la Universidad de Bolonia y Centro Internacional de Ética Digital (DEC) de la Universidad de Yale.
Burkhard SchäferCatedrático de Teoría Jurídica Computacional de la Universidad de Edimburgo.
Afzal SiddiquiCatedral del Departamento de Informática y Ciencias de Sistemas de la Universidad de Estocolmo.
Sara SpiekermannPresidente del Instituto de SI y Sociedad de la Universidad de Economía y Negocios de Viena.
Ugo PagalloProfesor titular de derecho, teoría jurídica e informática jurídica en el Departamento de Derecho de la Universidad de Turín.
Cory RobinsonCatedral de Diseño de Comunicaciones y Sistemas de Información de la Universidad de Linköping.
Elisabeth StaudeggerUniversidad de Graz.
Mariarosaria TaddeoProfesor de Ética Digital y Tecnologías de Defensa en el Oxford Internet Institute de la Universidad de Oxford.
Peggy ValckéCatedrática de Derecho y Tecnología de la Universidad Católica de Lovaina y Vicedecana de Investigación de la Facultad de Derecho y Criminología de Lovaina.
Puedes seguir un EL PAÍS Tecnología fr. Facebook Sí X o haga clic aquí para recibir el nuestro boletín semanal.