Imágenes falsas creadas con inteligencia artificial (IA) en las que aparece el expresidente Donald Trump siendo arrestado, huyendo de la policía y en la cárcel, se hicieron virales en redes sociales el martes.
Las imágenes fueron creadas por Eliot Higgins, el fundador del medio de investigación Bellingcat, quien estaba leyendo esta semana sobre la esperada acusación de Trump cuando decidió que quería visualizarla.
Higgins recurrió a un generador de arte de IA y le indicó a la tecnología peticiones simples como “Donald Trump se cae mientras lo arrestan” y compartió el resultado en Twitter. “Haciendo fotos de Trump siendo arrestado mientras espero el arresto de Trump”, escribió.
“Solo estaba bromeando. Pensé que tal vez cinco personas lo retuitearían”, comentó Higgins en una entrevista.
Sin embargo, dos días después, sus publicaciones que representan un evento que nunca sucedió han sido vistas casi 5 millones de veces.
Convirtiéndose en un ejemplo para debatir la creciente sofisticación de las imágenes generadas por IA, la facilidad con la que se pueden implementar y su potencial para crear confusión en entornos volátiles.
Sin leyes, las imágenes generadas con IA pueden ser peligrosas
El episodio también pone en evidencia la ausencia de estándares corporativos o regulaciones gubernamentales que aborden el uso de la IA para crear y difundir falsedades.
“Los legisladores han estado advirtiendo durante años sobre el posible uso indebido de los medios sintéticos para difundir desinformación y, en general, para sembrar confusión y discordia”, comentó el senador Mark R. Warner, presidente del Comité de Inteligencia del Senado.
“Si bien las capacidades tardaron algunos años en ponerse al día, ahora estamos en un punto en el que estas herramientas están ampliamente disponibles y son increíblemente capaces”, advirtió Warner.
Comentó que, a su juicio, los desarrolladores “ya deberían estar informados: si su producto permite directamente daños que son razonablemente previsibles, pueden ser potencialmente responsables”.
Vacíos en las regulaciones de las RRSS
Las principales plataformas en línea en las que se difunden este tipo de imágenes tienen políticas inconsistentes al respecto.
Twitter, Youtube y TikTok no respondieron de inmediato a una consulta de The Washington Post sobre las imágenes.
Mientras que Meta señaló ejemplos de las imágenes, que rápidamente saltaron de Twitter a otras plataformas, siendo verificadas en sus servicios, incluida la aplicación para compartir fotos Instagram.
“Contexto perdido. Los verificadores de hechos independientes dicen que la información en esta publicación podría inducir a error a las personas”, se lee en el texto rojo debajo de una de las imágenes en una publicación compartida por una cuenta con más de 3 mil seguidores.
Pero, en otras publicaciones de Facebook con más seguidores no se ha advertido que es una imagen falsa.
Hubo una penalización para Higgins en Midjourney, el generador de arte que había usado para crear las imágenes, pero llegó sin explicación y no recibió ninguna comunicación de la empresa sobre las reglas que había violado.
Cuidado en época electoral
Jessica González, codirectora ejecutiva del grupo de defensa de los medios Free Press, explicó que los gigantes tecnológicos están menos equipados para combatir las falsificaciones tras los despidos generalizados en la industria.
Meta, Google y Twitter han despedido colectivamente a decenas de miles de trabajadores en los últimos meses.
Desde que se hizo cargo de Twitter en octubre, Elon Musk ha suavizado las políticas de la plataforma contra la incitación al odio, ha reincorporado a personas influyentes extremistas y ha reducido las prácticas de moderación de contenido de la empresa mediante recortes drásticos en su plantilla.
“No sé si Twitter tiene el personal o el deseo francamente de asegurarse de que el contenido compartido en su sitio sea preciso”, comentó González.
La experta agregó que en época de elecciones es importante que los votantes tengan información precisa sobre las personas que se postulan para los cargos porque “los deepfakes representan un riesgo aún mayor, especialmente a medida que avanzamos en la temporada electoral”.