Google, Meta y OpenAI anuncian medidas para identificar contenidos creados con inteligencia artificial | Tecnología

Google, Meta y OpenAI anuncian medidas para identificar contenidos creados con inteligencia artificial |  Tecnología

Google, Meta y OpenAI se han anunciado en los últimos días para facilitar la identificación de imágenes o archivos que han sido producidos o editados con inteligencia artificial (IA). Estas iniciativas están marcadas por la tendencia a difundir indiscriminadamente mensajes falsos basados ​​en resultados electorales u otras consecuencias no deseadas. Tres empresas han anunciado que impedirán el uso de IA en los procesos electorales de 2024.

En los últimos años, he invertido miles de millones de euros para mejorar la capacidad de generar inteligencia artificial, las tres plataformas se han unido en la coalición por el procedimiento y la autenticidad de los contenidos (C2PA por las siglas en inglés), que ofrece un certificado estándar y es una parte importante de la industria digital, hasta medios de comunicación como la BBC o Los New York Times Hay bancos y fabricantes de cámaras. Las empresas admiten en sus comunicaciones que actualmente no existe una solución única, ni eficaz en todos los casos, para la identificación de contenidos generados por IA.

Las iniciativas varían entre las marcas visibles en las propias imágenes y mensajes difundidos en los metadatos del archivo o en los píxeles que han sido generados artificialmente. Con su herramienta en fase beta, SynthID, Google también ha encontrado un método de identificación por audio.

El estándar C2PA para introducir información de metadatos de imágenes tiene muchas dificultades técnicas, identificado con detalles por los desarrolladores. La propia OpenAI, que utilizará C2PA en Dall-3 (su generador de imágenes), notificado además comunicó que No hay necesidad de exagerar sus posibilidades: “Los metadatos como C2PA no son una solución milagrosa para abordar cuestiones de procedimiento. Puedes eliminar fácilmente cualquier forma accidental o intencionada. Una imagen que cuide estos metadatos puede generarse o no con ChatGPT o con nuestra API”, afirmó la empresa que creó el chatbot que popularizó la inteligencia artificial generativa.

Las empresas no tienen margen para la introducción completa de su medicamento. Este año 2024 es un año lleno de ciudades electorales en países importantes y la influencia del contenido generado por IA puede ser explosiva. La necesidad de protección preventiva es vital. «Estamos desarrollando esta capacidad y en los próximos meses nos esforzaremos en aplicar las etiquetas en todos los idiomas que admite cada aplicación», »dijo Nick Clegg, presidente de Asuntos Públicos de Meta, en su comunicado de prensa.

Este promete no etiquetar visualmente las imágenes que generan tus herramientas de IA, sino también detectar e identificar aquellas que se difunden en tus redes: Instagram, Facebook y Threads, siempre si es posible. «Podemos etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock para activar nuestros aviones y agregar metadatos a las imágenes creadas por nuestras herramientas», dice Clegg.

Google aplicará sus métodos a YouTube. Aunque esta información pretende representar lo último en lo que es técnicamente posible hoy en día, la compañía ha establecido que su método creado con SynthID puede realizar cambios voluntarios en la ofuscación, como «agregar filtros, cambiar colores y mantener varios efectos de compresión con pérdida, que se utiliza más para archivos JPEG.

Puedes seguir un EL PAÍS Tecnología fr. FacebookX o haga clic aquí para recibir el nuestro boletín semanal.

By D. Rezendes

Recomendado