Estados Unidos no ha criado «8,000 cocodrilos en el Río Bravo» para frenar la migración, ni ha incendiado la pirámide del Louvre. Estas historias, junto con otras como avistamientos de monstruos y criaturas míticas, se basan en imágenes generadas por IA. Empresas como Google, Meta y OpenAI están desarrollando formas de detectar estos contenidos y crear marcas de agua que resistan manipulaciones, mientras que los usuarios enfrentan el reto de discernir la autenticidad de las imágenes en redes sociales.
Creación y detección de imágenes con IA
Hoy en día, cualquiera puede generar imágenes hiperrealistas usando plataformas como DALL-E, Firefly y Midjourney sin necesidad de habilidades técnicas, comenta Jeffrey McGregor, CEO de Truepic y miembro de la C2PA, que trabaja en un estándar para verificar la autenticidad de contenidos digitales. Neal Krawetz, fundador de Hacker Factor Solutions y FotoForensics, añade que las IA pueden crear imágenes realistas de eventos que nunca ocurrieron, lo que puede influir en opiniones y erosionar la confianza en fuentes legítimas.
Problemas y peligros de las imágenes generadas por IA
La IA también puede generar imágenes comprometedoras o delictivas, como señala VS Subrahmanian de la Universidad Northwestern. En Extremadura, se reportaron miles de fotos falsas de personas desnudas creadas por IA. Estas imágenes pueden utilizarse para extorsionar y dañar reputaciones. Además, Josep Albors de ESET España advierte que estas imágenes pueden incitar conflictos étnicos, religiosos o políticos, afectando la seguridad nacional y la estabilidad en épocas electorales.
Consejos para detectar imágenes generadas por IA
Expertos como Tamoa Calzadilla de Factchequeado sugieren que los usuarios deben ser escépticos y analizar los detalles de las imágenes, como manos, ojos y proporciones. Por ejemplo, una imagen de Joe Biden en un uniforme militar mostraba tonos de piel inconsistentes y proporciones desiguales. Las herramientas como AI or NOT, Sensity, FotoForensics y Hive Moderation pueden ayudar a identificar imágenes falsas. Hive Moderation, por ejemplo, puede estimar la probabilidad de que una imagen sea generada por IA, mientras que FotoForensics revela detalles alterados.
Limitaciones y futuro de la detección de imágenes por IA
Aunque las herramientas ayudan, no son infalibles. Subrahmanian resalta que las IA han mejorado, superando errores como dedos extra y colores antinaturales. Sin embargo, la detección sigue siendo difícil, y solo un pequeño porcentaje de imágenes falsas puede pasar desapercibido, lo que es preocupante dada la cantidad de imágenes generadas por IA.
Importancia de la berificación de contenidos
Hasta que se implementen sistemas de autenticidad más robustos, es esencial que los usuarios adopten una postura crítica y usen múltiples herramientas y técnicas para verificar la autenticidad de las imágenes. Factchequeado, con el apoyo del Instituto de Periodismo Reynolds, ofrece una guía con 17 herramientas para combatir la desinformación. La clave es combinar observación, herramientas tecnológicas y verificación de fuentes para determinar la autenticidad de una imagen.