HereAfter AI: Hablar con quienes ya no están: el riesgo de resucitar a los muertos con inteligencia artificial | Tecnología

HereAfter AI: Hablar con quienes ya no están: el riesgo de resucitar a los muertos con inteligencia artificial |  Tecnología
HereAfter AI: Hablar con quienes ya no están: el riesgo de resucitar a los muertos con inteligencia artificial |  Tecnología

Entre lagrimas, tras escuchar a sus familiares fallecidos, varias mujeres confesaban su oscuridad en el mostrar televisión El Hormiguero (Antena 3). “Lo él se sentía superreal y me hacía falta, me hacía mucha falta”, dijo un joven ante las cámaras. “Es que la voz está clavada, muy contenta por la experiencia”, añadió otra mujer segunda a las lágrimas del rostro. El programa de Pablo Motos había mejorado la inteligencia artificial para recrear, a partir de audio real, las voces de los muertos. No solo reproducción, algo serio que hacer y que ha causado problemas de desinformación por el uso de este falsificaciones profundas con la voz de Joe Biden o el líder de los trabajadores británicos, Keir Starmer. Los audios generan inquietudes que sugieren sugerir a los participantes —¿tenemos una conversación pendiente?— en esta “experiencia real”, como reza el título del programa, que es ha zambullido en hora estelar En un mercado emergente, las víctimas deben ser recreadas con inteligencia artificial (IA). Los psicólogos dicen que pueden interferir con la adaptación natural al duelo y prolongar las fases más dolorosas.

La muerte de otra persona es como perder parte del bienestar. Este es el origen de diversas dificultades en el bienestar emocional y hay mucha lucha por hacer cualquier cosa para reavivar este sentimiento de pérdida repentina. Incluya una conversación entre usted y esto, si es posible. Suena es ciencia ficción, pero empresas como En adelante, posteriormenteArchivo de historias y Réplica lo están haciendo et no es nada sobrenatural. A partir de entrevistas y otro contenido, cree versiones digitales de personas caídas para interactuar con los vivos, de modo que pueda alternar entre chat, voz o video. En China, este negocio es creativo: varias empresas informan que han creado miles de personas o robots digitales fantásticos. Algunas personas también confirman que se puede lograr con tan solo 30 segundos de captura de entretenimiento audiovisual.

El estado unificado archivo histórico entrevista a personajes durante sus vidas en vídeo, realizando una serie de inquietudes sobre vidas clave, como su infancia, su esposa o su mayor desafío, con otras que el entrevistado decide agregar. A partir de las respuestas y el uso de la inteligencia artificial, se genera un vídeo conversacional con el que todos los niños, padres, amigos y familiares podrán interactuar en el futuro. Según un indicador, unas 5.000 personas han creado perfiles en la plataforma. El coste del servicio varía entre 40 y 450 euros, dependiendo del número de preguntas que se planifique incluir. También recibió una evaluación gratuita.

Stephen Smith, cofundador de StoryFile, explicó que la empresa nació hace una década con el objetivo de preservar la memoria de los sobrevivientes del Holocausto. Pero fue a finales de 2021 que la plataforma se convirtió a lo que es hoy, donde cualquiera puede capturar los videos con una cámara web desde su casa o en un estudio.

El cofundador da a entender que la plataforma no inventó el contenido, excepto para «agarrar algo que esté listo para agarrar» que existe. Pero es posible obtener más información y añadir información desde otros formatos. “Utilizamos la metodología conversacional de los archivos. Es importante utilizar contenido de la vida de la persona, como un vídeo donde podamos clonar la voz y que cuente lo que está pasando en su vida. Por ejemplo, puedes utilizar el correo electrónico y luego hacer lo que quieras. Si alguien quiere que esto tenga éxito, es posible”, afirmó EL PAÍS por videoconferencia.

El peligro de engancharse

El elemento más disruptivo es que algunas personas pueden depender o depender de hablar con avatares virtuales, porque les genera una falsa sensación de estar hablando con el mundo, como viendo el programa de Antena 3. Las mujeres que se preparan se dirigen directamente a la voz. ―“te diría…”, “te echo de menos”― como si estas actividades de ocio sintético fueran fuera de la abuela muerta un año antes.

“Al principio, hay alivio. Pero después surge una adicción, una adicción”, dijo José González, psicólogo especializado en procesos de duelo. “Si la IA literalmente se replica a sí misma como tal, es un gran crimen de croonificación, especialmente en películas muy intensas. Es fácil caer en esta fantasía de no tener la muerte. Puedo provocar este congelamiento en la fase de negación”, prosigue.

El experto, que ha trabajado con más de 20.000 personas en duelos durante 25 años, coincide en que los vídeos de conversaciones pueden ser útiles para mantener ciertos recuerdos, contar anécdotas o transmitir información entre generaciones de emoción. También al momento de replicar algunas de las técnicas que se harán en consulta para resolver problemas pendientes, que no se pueden resolver correctamente. “Hay preguntas sobre la película con la persona que murió, por ejemplo ‘lo que más me gustaba de ti’ o ‘cuando me decepcionaste más’. Con estas respuestas, el doliente escribe una carta y se deja en una silla vacía”, describe. Luego, la IA puede aplicarse a dinámicas como ésta, de forma ad hoc, siempre y bajo la supervisión de un profesional.

González dice que también tiene un riesgo asociado con quien se expresa en estas convulsiones. Los mensajes de desesperación pueden ser muy poderosos y ayudar a aliviar el sufrimiento porque es el momento en que le decimos a nuestros amigos que quienes quieren, los liberadores de la culpa, hacen el duelo mucho más fácil. No hay obstáculo, si no se informa sobre la supervisión de un experto, incluidas las mejores intenciones que podrían provocar un efecto adverso. “Imagínate que soy padre de una hija única y el dicho: ‘Te dejo como objetivo vital que cuides mucho de tu madre’. Puede ser muy bueno, pero también puede ser un poco condensado si la madre es muy cerrada”, por ejemplo. Fue en ese momento que recibí una recomendación profesional de un padre que propuso una forma diferente para evitar la creación de una carga emocional. Si no hay supervisión, aumenta la probabilidad de malentendidos.

Un problema ético

¿Pudiste encontrar un avatar que podría ser un campo? ¿A quién pertenece? ¿Qué tipo de datos puedes utilizar para tu creación? Éstas son sólo algunas de las preguntas que surgen al abordar este tema. Paraca Gry HasselbalchExperto en ética del Consejo Europeo de Investigación, las implicaciones se expanden a algo existencial: “Cualquier tecnología que se base en los humanos o en la idea de que puede competir con los humanos genera la preocupación de lo que significa ser humano, porque son nuestros límites y si podemos usarlos para superar un límite.

Hasselbalch, que también es cofundador de grupo de pensamiento danés DataEthics.euCree que la proliferación de avatares de líderes es un dilema que profundiza en los datos, el consentimiento o quiénes tienen los derechos. “Podría modificar la identidad de la humanidad y del ser humano, porque cuestiona la idea misma de mortalidad”, afirma.

Entre varios problemas potenciales, el experto en ética de la IA revela la posibilidad de una herramienta que no solo recuerde el contenido de las redes sociales, los correos electrónicos y los mensajes móviles de una persona que está caída, sino también las búsquedas de sus clientes en Internet. Esto podría revelar aficiones o intereses desconocidos para la persona, a causa de una pasión por un animal o una expulsión apresurada, en el caso de las personas, un oscuro secreto.

Si la inteligencia artificial combina esta información con otros elementos que constituyen su identidad, pero de mayor relevancia para ciertos aspectos, podría resultar en la creación de un avatar o robot que puede aparecer o no como una persona en la vida real. Este es un escenario de “pierdes el control”, advierte. Y no, es el único. “¿Con qué facilidad te pueden manipular si te piden que votes de cierta manera o que compres cosas específicas? No sabemos que de esto surgen empresas”, reflexiona.

“Deepfakes” y “derechos de autor”

Uno de los clientes de StoryFile conoció al fallecido Sam Walton, fundador de la enorme tienda Walmart. “Trabajamos con el archivo de su empresa. Revisamos muchas horas de material, transcribimos nuestros discursos, nuestros vídeos y elaboramos 2.500 respuestas a preguntas que había respondido durante su vida con exactamente las mismas palabras que usaba”, describe. El resultado fue una recreación digital que contenía el tablero, la voz y un holograma de Walton a tamaño real. ¿Puedes ser muy realista? “La gente que Sam conoce tiene los ojos del realista que él tiene”, afirmó Alan Dranow, director de esa empresa. La familia del empresario tuvo el consentimiento para esta producción, pero otros famosos Mantuvo sus caras y sus palabras escritas por AI sin un hecho común.

Es el caso del actor estadounidense George Carlin, elegido en 2008, y a quien clonaron su voz y su estilo para la creación de la podcast George Carlin: Me Alegro de Estar Muerto, publicado en youtube un principio de energía. La semana pasada, presentó una solicitud en un tribunal federal de Los Ángeles solicitando que Dudesy, la empresa que lo impulsó, eliminara inmediatamente el especial de audio. Su esposa, Kelly Carlin, había criticado la producción, por una síntesis de la voz del artista comentando los episodios actuales. “Mi padre hoy pasó una vida perfecta en su oficina basada en su humanidad, su cerebro y su imaginación. Ninguna máquina jamás será reemplazada en su forma original. Estos productos generados por IA son ingenieros que pretenden recrear una mente que ya no existirá. Tengo que decir que el trabajo del artista puede ser el mismo”, afirmó. plataforma X.

Según StoryFile, el servicio que incorpora lo más avanzado en esta tecnología es ejecutado únicamente por un grupo selecto. “No ofrecemos ningún producto en nuestro sitio web en este momento, sólo para clientes privados. No queremos que nuestra tecnología se utilice para crear una profundamente falso de otra persona”, Matiza Smith.

Sin embargo, hay alternativas disponibles allí. La empresa HolaGen, por ejemplo, permite generar vídeos con clonación de voz, sincronización de labios y estilos de piel. Si no se tiene mucha precaución, es imposible darse cuenta de que se trata de una creación artificial. Es por eso que la plataforma se presenta como una solución para personalizar y traducir contenidos en el mundo empresarial, y la práctica se puede utilizar para cualquier tipo de producto: sin querer que se utilice para generar dinero.

Puedes seguir un EL PAÍS Tecnología fr. FacebookX o haga clic aquí para recibir el nuestro boletín semanal.