FraudeGPT y el hermano maligno de ChatGPT. Promocionarte a ti mismo Red oscura y puedes escribir un mensaje destinado a pasar por un banco, crear malware o mostrar sitios web susceptibles de fraude, según la plataforma de análisis de datos Netenrich. Otras herramientas como WormGPT además, prometen facilitar el trabajo de los ciberdelincuentes. La inteligencia artificial generativa se puede utilizar con malware: generando individuos sofisticados, creando pornografía sin consentimiento, campañas de desinformación e incluso armas bioquímicas.
“Debido a algo relativamente nuevo, los delincuentes se apresuraron a mejorar las capacidades de la inteligencia artificial generativa para rastrear sus propuestas”, dice Josep Albors, director de investigación y diseño de la empresa de seguridad informática ESET en España. El experto tiene algunos ejemplos: el desarrollo de campañas de marketing Suplantación de identidad Cada vez somos más sofisticados —sin faltas de ortografía, además de mucho bien segmentadas y dirigidas— a la hora de generar desinformación y falsificaciones profundas. Se trata de vídeos manipulados con inteligencia artificial para modificar o sustituir la persona, el cuerpo o la voz de una persona.
Para Fernando Anaya, gerente de país Según Proofpoint, la inteligencia artificial generativa ha demostrado ser “el paso evolutivo más revolucionario”. “Después de observar los días que siguieron los usuarios, buscaron errores gramaticales, de contexto y de sintaxis obvios para detectar mensajes maliciosos”, dice. Ahora los ataques son más fáciles. Basta con pedirle a una de esas herramientas que generan un correo electrónico urgente y convincente sobre la actualización de información de cuentas y rutas bancarias.
Además, puedes crear fácilmente correos electrónicos en muchos idiomas. “Es posible que un LLM (un modelo de lenguaje colosal, que usa aprendizaje profundo y se entrena con grandes cantidades de datos) primero lea todos los perfiles de LinkedIn de una organización y luego escriba un correo electrónico muy específico para cada empleado. Todo ello en un impecable inglés holandés, adaptado a los intereses específicos del remitente. asesorar al Centro Holandés de Seguridad Cibernética.
Philip Hackercatedrático de Derecho y Ética de la Sociedad Digital en la Nueva Escuela Europea de Estudios Digitales, explica que la inteligencia artificial generativa se puede utilizar para crear malware más eficientes, más difíciles de detectar y capaces de detectar sistemas o vulnerabilidades específicas: “Si bien es probable que hoy en día se necesite mucha experiencia humana para desarrollar virus avanzados, la inteligencia artificial puede ayudar en las etapas iniciales de creación de virus”. malware“.
La implementación de este tipo de técnicas “está mucho más extendida”, según Albors. Pero herramientas como FraudGPT o WormGPT pueden plantear un “problema grave para las personas en el futuro”. “Con tu ayuda, delincuentes sin conocimientos técnicos previos pueden preparar campañas maliciosas de cualquier tipo con una considerable probabilidad de éxito, lo que permite a usuarios y empresas tener en cuenta una serie de medidas a la alcaldía”.
Genera sonido, imágenes y vídeos.
Si estás más convencido que fulano de tal, hay mayores posibilidades de que alguien se convierta en víctima. Puedes utilizar inteligencia artificial para sintetizar audio. « Estafas como cansado de la “carnicería de cerdos”“Quizás algún día pase de los mensajes a las llamadas, aumentando la capacidad de persuasión de esta técnica”, afirma Anaya. Está ahí, traducida al español como “carnicería de cerdos”, se llama así porque los agresores ‘engordan’ a las víctimas y están confiados en dejarse llevarse todo lo que tienen. Aunque están relacionados con las criptomonedas, también pueden implicar otros intercambios financieros.
Los investigadores de Proofpoint visitaron a delincuentes cibernéticos que utilizan esta tecnología para contratar funcionarios gubernamentales. Algo que debes saber sobre tu investigación sobre el grupo TA499, que utiliza esta técnica contra políticos, empresarios o celebridades. “Hacer vídeos para conseguir que los individuos suplantados por inteligencia artificial y otras técnicas sea en la medida de lo posible para que las víctimas tengan información o sean ridiculizadas, sufran capturas tras las redes sociales”, explica Anaya.
La inteligencia artificial generativa también se utiliza para ejecutar campañas con imágenes editadas e incluyendo vídeos. Clonó el audio de presentadores de televisión o personalidades importantes como Ana Botín, Elon Musk o Alberto Núñez Feijóo. Como explica Albors: “Estos deepfakes se utilizan principalmente para promover reversiones de criptomonedas que terminan perdiendo dinero invertido”.
De la pornografía a las armas bioquímicas
Un hacker logró un resultado particularmente “alarmante” al utilizar inteligencia artificial generativa para crear pornografía. “Esta forma de abuso se dirige exclusivamente contra las mujeres y causa graves daños personales y profesionales”, afirma. Hace un mes varias décadas en Extremadura se denunció que fotografías falsas de desnudos habían sido creadas por inteligencia artificial. Algunas celebridades como Rosalía o Laura Escanes han sufrido ataques similares.
Esta misma tecnología se ha utilizado “para crear imágenes falsas que retratan a inmigrantes potenciales, con el objetivo de influir en la opinión pública y los resultados electorales, y para crear las más sofisticadas y convincentes campañas de desinformación a gran escala”, como el hacker. Durante los incendios forestales que azotaron la isla de Maui en agosto, algunas publicaciones indican que no existe ningún tipo de evidencia que haya sido provocado por un “arma climática” secreta probada por Estados Unidos. Estos mensajes son parte de una campaña liderada por China e incluyen imágenes aparentemente creadas con inteligencia artificial, p. Los New York Times.
Aquí no se encontró el potencial para el uso de inteligencia artificial generativa. Un artículo publicado en la revista. Inteligencia de las máquinas naturales. indica que modelos avanzados de inteligencia artificial podrían ayudar a crear armas bioquímicas. Algo que, para Hacker, representa un peligro global. Además, los algoritmos pueden infiltrarse en el software de la infraestructura crítica, según el experto: “Estas soluciones híbridas han marcado la línea entre los escenarios de ataque tradicionales, lo que dificulta predecir y contrarrestar las leyes y regulaciones existentes.
El desafío de prevenir los riesgos del FraudeGPT y otras herramientas
¿Existen soluciones que se puedan utilizar para el aprendizaje automático y otras técnicas? para detectar y bloquear los ataques más sofisticados. Sin embargo, Anaya debe centrarse en educar y conocer a los usuarios para que puedan reconocer correos electrónicos de phishing y otras amenazas. Para Hacker, las empresas asociadas al uso malicioso de la inteligencia artificial generativa requieren una investigación que combine medidas regulatorias, soluciones tecnológicas y directrices estratégicas.
Entre las posibles vías, mencionar la implementación obligatoria de equipos independientes que revisen este tipo de herramientas para identificar vulnerabilidades y posibles usos independientes o la prohibición de ciertos modelos de código abierto. “Estos riesgos son complejos, existen importantes compensaciones entre los distintos objetos éticos de la inteligencia artificial y la viabilidad de la implementación de determinadas medidas”, concluye.
Puedes seguir un EL PAÍS Tecnología fr. Facebook Sí X o haga clic aquí para recibir el nuestro boletín semanal.