Si le preguntas a ChatGPT sobre los datos personales que alguien aporta a la conversación, tu respuesta es: “Al igual que el modelo de lenguaje desarrollado por OpenAI, no tienes la capacidad de procesamiento, no utilizas la información personal de los usuarios, a menos que ocurra”. en el curso de una conversación individual. Sin embargo, OpenAI, empresa propietaria de ChatGPT, puede utilizar esta información en determinados casos, según la política de privacidad de la empresa.
Es un tipo de datos específico y sólo para determinados casos. Se trata de datos de la cuenta OpenAI, como el nombre del usuario o la información de la tarjeta de pago, información personal que el usuario comunica con ChatGPT o la empresa, información del usuario para interactuar con cuentas OpenAI y redes sociales, como Instagram, Facebook, Medium, Twitter, YouTube. y LinkedIn o los datos que el usuario facilite a la empresa durante sus encuestas o eventos. Con esta información, la empresa puede mejorar sus productos y servicios, crear nuevos proyectos, realizar encuestas, establecer comunicación directa con los usuarios, cumplir obligaciones legales a favor de la empresa y prevenir fraudes, usos independientes del servicio y actividades delictivas.
Esta delicada cuestión no tiene relación con la nueva generación generacional. Enviar un correo electrónico vía Gmail a un amigo, o compartir fotografías o documentos en espacios de la nube como OneDrive, estas acciones son diarias y autorizadas. a los proveedores de estos servicios para compartir información con terceros. Empresas como OpenAI, Microsoft y Google pueden revelar la información de los proveedores de servicios y satisfacer sus necesidades comerciales, indicando también su política de privacidad.
Sin embargo, salvo algunas excepciones, las empresas no pueden utilizar datos personales con otras multas. Ricard Martínez, catedrático de derecho constitucional de la Universidad de Valencia, dijo que estaba estrictamente prohibido por el Reglamento General de Protección de Datos (RGPD): “Se expone a un alto nivel de regulación. Podríamos sancionar a la empresa con una cantidad equivalente al 4% de la factura anual global”. En estos casos, sólo podrá utilizar los fines de interés público admitidos por la normativa, como archivos o investigaciones históricas, estadísticas o científicas, o si son superiores a un juicio de compatibilidad.
La inteligencia artificial generada, como ChatGPT, tiene un gran volumen de datos, algunos de ellos personales, y este original contiene información general. En España, estas herramientas reciben 377 millones de visitas al año, según un estudio. Analiza la información recuperada, responde a las consultas de los usuarios y mejora su servicio, con el fin de comprobar que la herramienta “no entiende los documentos con los que se alimenta”, afirma Borja Adsuara, abogado experto en derecho digital.
Recomendación: ser muy discreto con los chatbots
La Agencia Española de Protección de Datos (AEPD) Sugerir a los usuarios que no aceptan que el chatbot Pida de registro datos que no sean necesarios; que solicita el consentimiento sin definir la necesidad del tratamiento de los datos y sin permitir su retirada en ningún momento, ni realizar transferencias a países que no ofrezcan garantías suficientes. También se recomienda “limitar los datos personales que se exponen, sin que los datos personales de terceros se deban a tratamientos que vayan más allá del ámbito doméstico y teniendo en cuenta que no se garantiza que la información proporcionada por el chatbot sea correcta. Las consecuencias son “problema emocional, desinformación o inducción al compromiso”.
Los expertos coinciden al mismo tiempo: no compartas información personal con la herramienta de inteligencia artificial. Incluía el propio anuncio de ChatGPT: “Ten en cuenta que si compartes información personal, sensible o confidencial durante la conversación, debes tener precauciones. Se recomienda no proporcionar información confidencial cuando se viaja en plataformas en línea, incluso en conversaciones con modelos de lenguaje como yo.
Eliminar datos personales
Si siguiendo estas recomendaciones has compartido datos personales con inteligencia artificial, puedes intentar utilizarla. Hay uno forma en la página web de OpenAI para poder eliminarlos: la mala notificación es que la empresa anunció que “enviar una solicitud no garantiza que la información sobre usted haya eliminado los resultados de ChatGPT”. Debe complementarse con los datos reales del interés, el cual deberá “jurar” por escrito la veracidad de quien lo presenta. Además, la información del formulario puede tener referencias cruzadas con otras fuentes para verificar su veracidad. Microsoft también ofrece una panel de privacidad para acceder a datos personales y datos personales.
A través de acciones legales, Martínez explica que el usuario “puede ejercitar su derecho de supresión, si considera que los datos personales han sido tratados de forma ilícita, son incorrectos e inadecuados. Puedes darte cuenta de baja, retirar tu consentimiento, que es gratuito y no condicionado, estando la empresa obligada a facilitarte toda la información. Este especialista recoge también el derecho a la portabilidad: “Cada vez hay más aplicaciones que permiten al usuario descargar todo su historial y cargarlo en un formato compatible. El reglamento también recomienda la anonimización de los datos personales”.
La anonimización, según la AEPD, consiste en la conversión de datos personales en datos que no pueden utilizarse para identificar a una persona. en saber guía sobre el procesamiento de la inteligencia artificial (IA), la agencia explica que la anonimización es una de las técnicas para minimizar el uso de datos, garantizando que se utilizarán únicamente para los datos precisos para el propósito determinado.
Nueva ley de inteligencia artificial
Las empresas que gestionan datos personales, desde la entrada en vigor de la nueva ley europea de inteligencia artificial, suelen tener una cuenta de tres claves, como también explicó en este momento la consultora Entelgy: deben revelar cómo funciona el algoritmo y el contenido que se genera en un registro europeo; Por otro lado, no es obligatorio establecer mecanismos de vigilancia humana; Con el tiempo, los modelos de lenguajes grandes (LLM) deberán introducir sistemas de seguridad y los desarrolladores tendrán la obligación de ser transparentes sobre el material protegido por derechos de autor que utilizan.
Sin embargo, la nueva norma no es incompatible con el Reglamento General de Protección de Datos. Como explica Martínez: “La IA que procesa datos personales, o que genera datos personales en el futuro, nunca podrá acceder al mercado si no garantiza el cumplimiento del RGPD. Esto se evidencia de manera muy especial en los sistemas de alto nivel, los cuales deben implementar un modelo de gobernanza de datos, así como registros de operación y uso que garanticen la trazabilidad”.
El siguiente paso para la inteligencia artificial, dice Adsuara, es que la información personal copiada pueda usarse en una especie de grupo personal: “Un lugar en el que cada persona guarda su depósito de documentos que contienen datos personales, pero donde la información no se puede recuperar. de ahí, que no utilizamos para alimentar la inteligencia artificial generativa universal”, explica.
Puedes seguir un EL PAÍS Tecnología fr. Facebook Sí X o haga clic aquí para recibir el nuestro boletín semanal.