El Mercurio Web | Noticias, Información y Análisis

View Original

Un consejo técnico: Cómo detectar imágenes deepfake generadas por IA

Con los deepfakes de IA que aparecen casi todos los días, representando a todos, desde Taylor Swift hasta Donald Trump

Con información de AP

LONDRES (AP) - La falsificación de IA se está convirtiendo rápidamente en uno de los mayores problemas a los que nos enfrentamos en línea. Las imágenes, los vídeos y el audio engañosos están proliferando como resultado del surgimiento y el mal uso de las herramientas de inteligencia artificial generativa.

Con los deepfakes de IA que aparecen casi todos los días, representando a todos, desde Taylor Swift hasta Donald Trump, cada vez es más difícil decir lo que es real de lo que no lo es. Los generadores de vídeo e imágenes como DALL-E, Midjourney y Sora de OpenAI facilitan a las personas sin habilidades técnicas la creación de deepfakes: solo tienes que escribir una solicitud y el sistema la escupe.

Estas imágenes falsas pueden parecer inofensivas. Pero se pueden utilizar para llevar a cabo estafas y robo de identidad o propaganda y manipulación electoral.

Así es como evitar ser engañado por deepfakes:

CÓMO DETECTAR UN DEEPFAKE: MIRA LAS CARAS

El intercambio de caras es uno de los métodos de deepfake más comunes. Los expertos aconsejan mirar de cerca los bordes de la cara. ¿El tono de la piel facial coincide con el resto de la cabeza o el cuerpo? ¿Están los bordes de la cara afilados o borrosos?

Si sospechas que el vídeo de una persona hablando ha sido manipulado, mira su boca. ¿Los movimientos de sus labios coinciden perfectamente con el audio?

Ajder sugiere mirar los dientes. ¿Son claros, o son borrosos y de alguna manera no son consistentes con cómo se ven en la vida real?

La empresa de ciberseguridad Norton dice que los algoritmos podrían no ser lo suficientemente sofisticados todavía como para generar dientes individuales, por lo que la falta de contornos para dientes individuales podría ser una pista.En los primeros días de los deepfakes, la tecnología estaba lejos de ser perfecta y a menudo dejaba signos reveladores de manipulación. Los verificadores de hechos han señalado imágenes con errores obvios, como manos con seis dedos o anteojos que tienen lentes de forma diferente.

Pero a medida que la IA ha mejorado, se ha vuelto mucho más difícil. Algunos consejos ampliamente compartidos, como buscar patrones de parpadeo antinaturales entre las personas en videos deepfake, ya no se mantienen, dijo Henry Ajder, fundador de la consultora Latent Space Advisory y experto líder en IA generativa.

Aún así, hay algunas cosas que buscar, dijo.

Muchas fotos deepfake de IA, especialmente de personas, tienen un risllo electrónico, "una especie de efecto de suavizado estético" que deja la piel "con un aspecto increíblemente pulido", dijo Ajder.

Sin embargo, advirtió que el estímulo creativo a veces puede eliminar este y muchos otros signos de manipulación de la IA.

Comprueba la consistencia de las sombras y la iluminación. A menudo, el sujeto está en un enfoque claro y parece convincentemente realista, pero los elementos en el fondo pueden no ser tan realistas o pulidos.

El sitio web de periodismo de Poynter aconseja que si ves a una figura pública haciendo algo que parece "exagerado, poco realista o sin carácter", podría ser una falsificacura profunda.

Por ejemplo, ¿el Papa realmente estaría usando una chaqueta de lujo, como la representa una notoria foto falsa? Si lo hiciera, ¿no habría fotos o vídeos adicionales publicados por fuentes legítimas?

USAR LA IA PARA ENCONTRAR LAS FALSIFICACIONES

Otro enfoque es usar la IA para combatir la IA.

Microsoft ha desarrollado una herramienta de autenticación que puede analizar fotos o vídeos para dar una puntuación de confianza sobre si ha sido manipulado. El fabricante de chips Intel'sFakeCatcher utiliza algoritmos para analizar los píxeles de una imagen para determinar si es real o falso.

Hay herramientas en línea que prometen olfatear falsificaciones si subes un archivo o pegas un enlace al material sospechoso. Pero algunos, como el autenticador de Microsoft, solo están disponibles para socios seleccionados y no para el público. Eso es porque los investigadores no quieren avisar a los malos actores y darles una ventaja más grande en la carrera armamentista deepfake.

El acceso abierto a las herramientas de detección también podría dar a las personas la impresión de que son "tecnologías divinas que pueden subcontratar el pensamiento crítico para nosotros" cuando, en cambio, necesitamos ser conscientes de sus limitaciones, dijo Ajder.

LOS OBSTÁCULOS PARA ENCONTRAR FALSIFICACIONES

Dicho todo esto, la inteligencia artificial ha estado avanzando a una velocidad vertiginosa y los modelos de IA se están entrenando en datos de Internet para producir contenido de calidad cada vez más alta con menos defectos.

Eso significa que no hay garantía de que este consejo siga siendo válido incluso dentro de un año.

Los expertos dicen que incluso podría ser peligroso poner la carga sobre la gente común para convertirse en Sherlocks digitales porque podría darles una falsa sensación de confianza a medida que se vuelve cada vez más difícil, incluso para los ojos entrenados, detectar deepfakes.