
“Es repugnante. Por favor, dejen de enviarme videos hechos con inteligencia artificial de mi papá. Si tienen un poco de decencia, dejen de hacerle esto a él, a mí, a todos, punto final”, lanzó Zelda, la hija de Robin Williams, frente a los mensajes que recibe diariamente por parte de seguidores del reconocido actor. Resulta más que entendible la posición de Zelda, quien se encontró abrumada por la situación, lo que abre una serie de debates vinculados a qué sucede cuando la tecnología empieza a devolvernos versiones artificiales de quienes ya no están.
Los avances en inteligencia artificial generativa ya no se limitan a producir textos o imágenes. Hoy pueden recrear caras, movimientos y voces con un nivel de realismo tal que el límite entre lo verdadero y lo falso se vuelve difuso. Los deepfakes, antes simples curiosidades digitales, se convirtieron en una herramienta de manipulación política, económica y emocional. Según un informe del World Economic Forum (2024), los contenidos audiovisuales sintéticos representan ya más del 90 % del material manipulado que circula en redes sociales, y su volumen crece exponencialmente cada año. Por su parte, la Comisión Europea estima que los deepfakes podrían influir en procesos electorales si no se establecen mecanismos de autenticación y trazabilidad obligatoria.
El problema no es solo tecnológico: es cultural, ético y político. En una sociedad cada vez más mediada por pantallas, la evidencia visual —lo que “vemos con nuestros propios ojos”— era uno de los últimos bastiones de la verdad. Hoy, incluso eso está en cuestión. Si cualquier imagen puede ser falsificada con precisión quirúrgica, ¿qué lugar ocupa la confianza en la esfera pública? En Argentina, donde la desinformación ya afecta la calidad del debate político, la falta de un marco normativo sobre contenido sintético deja al país en una situación vulnerable. No existen protocolos claros que regulen la producción y difusión de videos generados por IA, ni mecanismos judiciales eficaces para verificar su autenticidad.
¿Y lo eterno?
La inquietud va más allá del uso político o económico. Lo que está en juego es nuestra relación con la identidad y la muerte. Cada vez más empresas ofrecen la posibilidad de “revivir” digitalmente a seres queridos a través de recreaciones interactivas. En Estados Unidos, Reino Unido y China existen startups que, mediante el entrenamiento de modelos de IA con fotos, audios y mensajes, permiten mantener conversaciones con avatares que replican la voz y la personalidad de personas fallecidas. Lo que para algunos es una herramienta de duelo, para otros es la puerta abierta a un nuevo tipo de explotación emocional.
La pregunta es hasta dónde estamos dispuestos a ir. Si una inteligencia artificial puede copiar nuestros gestos, nuestras ideas y hasta nuestra forma de hablar, ¿qué queda del individuo una vez que se convierte en dato? La “inmortalidad digital” promete una continuidad de la existencia, pero a costa de transformar la conciencia en información intercambiable. No se trata solo de nostalgia o memoria: también de propiedad. ¿A quién pertenece la voz de Robin Williams ahora? ¿A su familia, a la empresa que la reproduce o al algoritmo que la perfecciona?
Los organismos internacionales comienzan a advertir sobre estos dilemas. La UNESCO propone incorporar en sus marcos éticos el concepto de “identidad digital póstuma”, para que la imagen y voz de una persona fallecida no puedan ser utilizadas sin consentimiento previo. En América Latina, en cambio, el debate es incipiente: los proyectos de ley sobre inteligencia artificial se centran en seguridad o productividad, pero no abordan la dimensión humana ni cultural de estos avances.
En la Argentina, el tema no es para nada ajeno. En los últimos meses, proliferaron aplicaciones que permiten revivir fotos o generar videos hiperrealistas a partir de imágenes estáticas. Algunas empresas ya ofrecen este servicio como parte de memoriales digitales, sin regulación ni resguardo sobre los datos utilizados. En paralelo, las instituciones públicas todavía carecen de herramientas para detectar falsificaciones en procesos judiciales o campañas electorales y las universidades apenas comienzan a incorporar la alfabetización mediática como contenido transversal.
El debate que abre el caso de Robin Williams excede lo anecdótico. Nos enfrenta con una pregunta más profunda: ¿queremos preservar la memoria o fabricar una ilusión de eternidad? La inteligencia artificial puede ayudar a reconstruir voces, rostros o emociones, pero lo que no puede replicar es la experiencia humana de la pérdida. La tentación de conservarlo todo puede terminar vaciando de sentido a la memoria misma.
El futuro inmediato no dependerá solo de los avances técnicos, sino de nuestra capacidad para establecer límites éticos y legales. Regular los deepfakes, proteger la identidad digital y educar en el uso crítico de la tecnología no es un lujo académico: es una forma de resguardar la confianza, la verdad y la dignidad en una era donde lo falso puede ser indistinguible de lo real. La IA, como toda herramienta, puede servir para preservar la memoria colectiva o para distorsionarla. Lo que hagamos con ella dirá mucho más sobre nosotros que sobre las máquinas.
