Nada es lo que parece. Quizás una frase un poco trillada, pero es la más oportuna para resumir la advertencia que deben tener en cuenta todas las personas que se basan en contenido publicado en redes sociales para tomar decisiones. Y aunque parezca obvio, los casos de engaños se materializan a diario. En esta ocasión, una pareja de Malasia vio un video en redes de un destino turístico que les pareció atractivo y, con entusiasmo, agarraron el auto, manejaron cuatro horas —aproximadamente 300 kilómetros— solo para llegar y encontrarse con la nada misma: lo que vieron había sido generado con inteligencia artificial.

La noticia se hizo viral porque una empleada del hotel en el pueblo Kuak Hulu —en la zona de Perak—, donde supuestamente estaba la atracción turística, escribió en redes sociales lo que le había pasado: una pareja de dos personas adultas había hecho su registro en el establecimiento y preguntaban por un teleférico del cual, en su vida, había escuchado. Aunque los turistas insistieron, la empleada tuvo que explicarles que se trataba de un pueblo muy tranquilo, donde no había mucho para ver y que, seguramente, el contenido que habían visto en redes era una invención.

Imágenes del video falso generado con inteligencia artificial que mostraba el supuesto teleférico rodeado de turistas y naturaleza. Crédito: Imasofia a través de Threads.

El video fue publicado a finales de junio y, aunque ya fue eliminado de las redes sociales luego de varios reportes por parte de los usuarios, acusándolo de contenido engañoso, mostraba cómo una periodista del canal llamado “TV Rakyat” presentaba el teleférico Kuak Skyride. El video mostraba el recorrido que hacía a través de las montañas y los paisajes naturales. También entrevistaba a diversos grupos de turistas con los que conversaba acerca de qué les había parecido la atracción. El video, para una persona sin un ojo tan entrenado, puede parecer real.

View on Threads

La indignación de la pareja era total. De hecho, la mujer le preguntó a la empleada del hotel por qué le hacían esto a las personas y amenazó con denunciar a la periodista en el video. Hasta que, por supuesto, entendió que no habría a quién denunciar: no existía ni el teleférico ni la periodista. Avergonzados, ambos agarraron el auto y regresaron a su hogar, personificando exactamente los riesgos —hoy, si se quiere, inocentes— de la inteligencia artificial en las personas que no están lo suficientemente atentas a lo que ven. O lo suficientemente desconfiadas.

Cecilia Danesi, abogada y directora del máster en Gobernanza Ética de la IA en la Universidad Pontificia de Salamanca, explicó a LA NACION que los engaños en la era digital ya existen desde antes de la aparición de los motores de creación de video ultrarealista. El problema es que ahora se están volviendo cada vez más sofisticados y se desarrollan desde servidores en países donde la regulación no es fuerte. “Ahora tenemos la posibilidad de replicar la voz o la imagen de una persona a la perfección, de una manera casi imperceptible para el ojo humano”, señaló.

El caso fue noticia alrededor de todo el mundo, especialmente en medios de comunicación en Malasia, y agudizó una conversación que ya tiene gran presencia en todos los países.

En Argentina, particularmente, los deepfakes —así se llama a los videos generados con inteligencia artificial que imitan personas o lugares de la realidad— fueron tendencia durante las pasadas elecciones legislativas en la Ciudad de Buenos Aires. En X, cuentas libertarias difundieron un video falso en el cual Mauricio Macri anunciaba la baja de la candidatura de Lospenatto e incitaba a votar a Manuel Adorni. También periodistas reconocidos como Alejandro Fantino, fueron víctimas de estas prácticas.

Imágenes del video falso generado con inteligencia artificial que mostraba el supuesto teleférico rodeado de turistas y naturaleza. Crédito: Imasofia a través de Threads.

La preocupación reside, más que nada, en la distorsión de la realidad. “Nos encaminamos hacia un futuro en el que los videos ya no serán tan fiables. La mejor manera de protegernos de las noticias falsas y la desinformación es perfeccionar nuestro pensamiento crítico y siempre ser escéptico con el contenido que se ve en línea”, detalló Fredi Vivas, ingeniero y docente de inteligencia artificial en la Universidad de San Andrés. Como recomendación, explicó que hoy la gran mayoría de videos deepfake suelen tener marcas o detalles muy visibles. Por ejemplo, en los rostros, a veces las facciones se ven borrosas o están descoordinadas.

Los efectos de este tipo de deepfakes hoy son más anecdóticos que otra cosa. Pero cada vez sus consecuencias se van materializando más: hoy fue un viaje, pero ¿mañana qué sigue? Sobre el impacto en las democracias, Fernanda Vegetti, socióloga y consultora política, explicó: “Inferir que la utilización de IA por sí misma podría determinar el rumbo de una elección es como pensar que una brisa puede cambiar el curso de un río. La IA entra a jugar con otros elementos: contextuales, partidarios, de confianza, institucionales, de territorio, de historia”.

Imágenes del video falso generado con inteligencia artificial que mostraba el supuesto teleférico rodeado de turistas y naturaleza. Crédito: Imasofia a través de Threads.

En efecto, la presencia de los contenidos es una llamada de atención para que los líderes comiencen a tomar cartas en el asunto. En el Congreso se presentaron cuatro proyectos de ley que, en líneas generales, proponen adaptar el marco legal para enfrentar el problema de la desinformación y la manipulación digital en la era de la inteligencia artificial. “Estamos frente a un vacío legal -dijo Silvana Giudici, diputada autora de uno de los proyectos- que buscamos subsanar con esta iniciativa, cuyo objetivo es asegurar que las tecnologías emergentes no sean utilizadas para infringir derechos fundamentales”.