Un consejo técnico: cómo detectar imágenes deepfake generadas por IA
LONDRES (AP) — La falsificación de IA se está convirtiendo rápidamente en uno de los mayores problemas que enfrentamos en línea. Imágenes, vídeos y audios engañosos están proliferando como resultado del aumento y mal uso de herramientas de inteligencia artificial generativa.
Con los deep fakes de IA apareciendo casi todos los días, que representan a todos, desde Taylor Swift a Donald Trump, Cada vez es más difícil distinguir lo que es real de lo que no lo es. Generadores de vídeo e imágenes como DALL-E, Midjourney y Sora de OpenAI facilite a las personas sin ninguna habilidad técnica la creación de deep fakes: simplemente escriba una solicitud y el sistema la escupirá.
Estas imágenes falsas pueden parecer inofensivas. Pero pueden utilizarse para llevar a cabo estafas y robo de identidad o propaganda y manipulación electoral.
Aquí se explica cómo evitar ser engañado por deep fakes:
CÓMO DETECTAR UN DEEP FAKE
En los primeros días de los deep fakes, la tecnología estaba lejos de ser perfecta y a menudo dejaba signos reveladores de manipulación. Los verificadores de datos han señalado imágenes con errores obvios, como manos con seis dedos o anteojos con lentes de formas diferentes.
Pero a medida que la IA ha mejorado, se ha vuelto mucho más difícil. Algunos consejos ampliamente compartidos, como buscar patrones de parpadeo antinaturales entre las personas en videos deep fake, ya no son válidos, dijo Henry Ajder, fundador de la consultora Latent Space Advisory y destacado experto en IA generativa.
Aun así, hay algunas cosas que buscar, dijo.
Mucho Muchas Fotos falsas con IA, especialmente en las personas, tienen un brillo electrónico, “una especie de efecto suavizante estético” que deja la piel con un aspecto increíblemente pulido”, dijo Ajder.
Sin embargo, advirtió que las indicaciones creativas a veces pueden eliminar este y muchos otros signos de manipulación de la IA.
Comprueba la consistencia de las sombras y la iluminación. A menudo, el sujeto está claramente enfocado y parece convincentemente realista, pero los elementos del fondo pueden no ser tan realistas o pulidos.
MIRA LAS CARAS
El intercambio de caras es uno de los métodos de deep fake más comunes. Los expertos aconsejan mirar de cerca los bordes del rostro. ¿El tono de piel del rostro coincide con el del resto de la cabeza o del cuerpo? ¿Los bordes de la cara están nítidos o borrosos?
Si sospecha que el video de una persona hablando ha sido manipulado, mire su boca. ¿Los movimientos de sus labios coinciden perfectamente con el audio?
Ajder sugiere mirar los dientes. ¿Son claros o están borrosos y de alguna manera no son consistentes con su apariencia en la vida real?
La empresa de ciberseguridad Norton dice que es posible que los algoritmos aún no sean lo suficientemente sofisticados como para generar dientes individuales, por lo que la falta de contornos para los dientes individuales podría ser una pista.
PIENSE EN EL PANORAMA MÁS GRANDE
A veces el contexto importa. Tómate un momento para considerar si lo que estás viendo es plausible.
El sitio web de periodismo de Poynter aconseja que si ves a una figura pública haciendo algo que parece “exagerado, poco realista o fuera de lugar”, podría ser un deep fake.
Por ejemplo, ¿llevaría realmente el Papa una chaqueta acolchada de lujo, como representado ¿Por una notoria foto falsa? Si lo hiciera, ¿no se publicarían fotos o vídeos adicionales de fuentes legítimas?
USANDO LA IA PARA ENCONTRAR LAS FALSIFICACIONES
Otro enfoque es utilizar la IA para luchar contra la IA.
Microsoft ha desarrollado una herramienta de autenticación que puede analizar fotos o videos para dar una puntuación de confianza sobre si han sido manipulados. El fabricante de chips Intel cazador falso utiliza algoritmos para analizar los píxeles de una imagen y determinar si es real o falsa.
Hay herramientas en línea que prometen detectar falsificaciones si subes un archivo o pegas un enlace al material sospechoso. Pero algunos, como el autenticador de Microsoft, solo están disponibles para socios seleccionados y no para el público. Esto se debe a que los investigadores no quieren alertar a los malos actores y darles una mayor ventaja en la carrera armamentista de los deep fake.
El acceso abierto a las herramientas de detección también podría dar a la gente la impresión de que son tecnologías divinas que pueden subcontratar el pensamiento crítico por nosotros, cuando, en cambio, debemos ser conscientes de sus limitaciones, dijo Ajder.
LOS OBSTÁCULOS PARA ENCONTRAR FALSIFICACIONES
Dicho todo esto, la inteligencia artificial ha avanzado a una velocidad vertiginosa y los modelos de IA se están entrenando con datos de Internet para producir contenidos cada vez de mayor calidad y con menos fallos.
Eso significa que no hay garantía de que este consejo siga siendo válido incluso dentro de un año.
Los expertos dicen que incluso podría ser peligroso imponer a la gente común la carga de convertirse en Sherlocks digitales porque podría darles una falsa sensación de confianza a medida que se vuelve cada vez más difícil, incluso para ojos entrenados, detectar deep fakes.