Foto dw.com, creada con IA

Nunca ha sido tan fácil crear imágenes engañosamente reales: todo lo que se necesita es una conexión a Internet y una herramienta que funcione con Inteligencia Artificial (IA). En cuestión de segundos, se crean imágenes fotorrealistas que muchos de nosotros percibimos como reales. Y es por eso que se difunden tan rápido en las redes sociales y se suelen usar para desinformar. dw.com

Foto falsa publicada por dw.com creada con un programa de Inteligencia Artificial -IA-

Sólo algunos ejemplos recientes que se volvieron virales: el supuesto arresto de Vladimir Putin, el de Donald Trumpo o la imagen de Elon Musk cogido de la mano de Mary Bara, directora ejecutiva de General Motors. Estas imágenes de IA muestran eventos que nunca sucedieron. E incluso hay fotógrafos que publican supuestas fotos de retratos que resultan ser imágenes generadas por IA.

Mientras algunas de estas imágenes pueden resultar divertidas, también pueden suponer un peligro real en términos de desinformación y propaganda, según expertos consultados por DW. El propio Musk pidió junto a cientos de especialistas una pausa en el desarrollo de estas tecnologías.

Terremotos que nunca sucedieron

Eventos como supuestas persecuciones de automóviles espectaculares o arrestos de celebridades como Putin o Trump pueden ser verificados con bastante rapidez por los usuarios que consultan fuentes de medios acreditados. Más problemáticas son las imágenes en las que las personas no son tan conocidas, dice a DW el experto en inteligencia artificial Henry Ajder.

«Y no solo las imágenes generadas de personas pueden difundir desinformación», explica Ajder. «Hemos visto a personas crear eventos que nunca ocurrieron, como terremotos». Como el de la costa pacífica de Canadá y Estados Unidos en 2001, que nunca sucedió: las imágenes compartidas en Reddit fueron generadas por IA.

Cada vez es más difícil clasificar lo que realmente sucedió y lo que no. Pero así como errar es humano, la IA también comete errores, aunque está evolucionando muy rápidamente. Actualmente, programas como Midjourney, Dall-E y DeepAI tienen sus problemas, especialmente con las imágenes que muestran personas. Aquí hay seis consejos del equipo de verificación de hechos de DW sobre cómo detectar la manipulación.

1. Hacer zoom y examinar de cerca

Muchas imágenes generadas por IA parecen reales a primera vista. Los programas utilizados pueden crear imágenes fotorrealistas que a menudo solo pueden revelarse como falsificaciones en una inspección más cercana. Así que el primer consejo es: mira de cerca. Para esto, busque las versiones de la imagen con la mayor resolución posible y haga zoom en los detalles de la imagen. Cualquier incoherencia, error o clonación de imágenes será más fácil de detectar.

Foto dw.com, creada con IA

2. Encuentre la fuente de la imagen

Intente obtener más información sobre el origen de la imagen que conduzca a su primera publicación. A veces bastan los comentarios de otros usuarios. Una búsqueda inversa de imágenes también puede ayudar: para hacerla, cargue la imagen en herramientas como la de Google, TinEye o Yandex. Si ya hay verificaciones de hechos por parte de medios acreditados en los resultados de los motores de búsqueda, estos generalmente brindan aclaración y contexto.

3. Preste atención a las proporciones del cuerpo

¿Son correctas las medidas de las personas representadas? No es raro que las imágenes generadas por IA tengan inconsistencias en la proporción: las manos pueden ser demasiado pequeñas o los dedos demasiado largos. O la cabeza y los pies no coinciden con el resto del cuerpo. Un ejemplo es la imagen de Putin arrodillado ante Xi Jinping. Su zapato es desproporcionadamente grande, por ejemplo, así como otros detalles.

Por Margarita Brito

Periodista con más de 20 años de experiencia en radio, televisión y prensa escrita. Esposa, madre y abuela. Escribo porque me gusta y porque nada me es ajeno.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *