¿Son superiores las capacidades humanas o la inteligencia artificial a la hora de detectar tecnología deep fake?

En una era tecnológica en la que el poder de las computadoras y los modelos de inteligencia artificial ha aumentado significativamente, la prevalencia de los deepfakes ha aumentado para interesar a todos. Deepfaking significa crear contenido visual o de audio que parece haber sido grabado por individuos humanos en alta resolución. Los deepfakes amenazan todos los aspectos de la sociedad.

Nuestra capacidad para identificar contenido falso es crucial para neutralizar la información errónea, pero a medida que la tecnología de inteligencia artificial mejora, ¿en quién podemos confiar para detectar deepfakes? Aquí surge la pregunta: ¿Quién es mejor para detectar deepfakes, los humanos o la inteligencia artificial?

Durante miles de años, los humanos han logrado distinguir sonidos, rostros y comprender idiomas. Pero, ¿pueden las máquinas impulsadas por IA superar estas capacidades? Este artículo explora los desafíos y avances en la detección de deepfake y compara las capacidades de la inteligencia humana y artificial en este contexto. Verificar ¿Cómo saber si un video está modificado con deepfake?

¿Son superiores las capacidades humanas o la inteligencia artificial para detectar tecnología deep fake? - Inteligencia Artificial

Los peligros de los deepfakes

A medida que avanza la tecnología de inteligencia artificial, los peligros de los deepfakes representan una amenaza cada vez mayor para todos nosotros. Aquí hay un resumen rápido de algunos de los problemas más apremiantes que plantean los deepfakes:

  1. Desinformación: Los vídeos y grabaciones de audio falsos pueden difundir información engañosa, como noticias falsas.
  2. el robo de identidad: Al hacerse pasar por personas, los deepfakes pueden dañar la reputación de las personas o engañar a cualquiera que conozcan.
  3. Seguridad nacional: Un escenario de guerra deepfake obvio son imágenes o grabaciones de audio fabricadas de un líder mundial que incita al conflicto.
  4. Disturbios civiles: Los partidos también pueden utilizar imágenes y clips de audio engañosos para incitar la ira y el malestar civil entre grupos específicos.
  5. La seguridad cibernética: Los ciberdelincuentes ya están utilizando herramientas de clonación de voz impulsadas por inteligencia artificial para dirigirse a personas con mensajes persuasivos de personas que conocen.
  6. Privacidad y consentimiento: El uso malicioso de deepfakes toma la forma de individuos sin su consentimiento.
  7. Confianza y su falta: Si no se puede distinguir entre la verdad y el engaño, la información precisa se vuelve igualmente poco confiable.

Los deepfakes serán más convincentes, por lo que necesitamos herramientas y métodos potentes para detectarlos. La inteligencia artificial proporciona una de esas herramientas en forma de modelos de detección de deepfake. Sin embargo, al igual que los algoritmos diseñados para reconocer la escritura generada por IA, las herramientas de detección de deepfake no son perfectas y nunca serán perfectamente precisas.

En este momento, el juicio humano es la única herramienta en la que podemos confiar. Entonces, ¿somos mejores que los algoritmos para identificar deepfakes?

¿Pueden los algoritmos detectar deepfakes mejor que los humanos?

Los deepfakes representan una amenaza tan grave que gigantes de tecnología y grupos de investigación están dedicando enormes recursos a la investigación y el desarrollo. En 2019, empresas como Meta, Microsoft y Amazon ofrecieron XNUMX millón de dólares en premios durante un desafío. Deepfake Detection Challenge Para el modelo de detección más preciso.

El modelo con mejor rendimiento tuvo una precisión del 82.56% en comparación con un conjunto de datos de videos disponibles públicamente. Sin embargo, cuando los mismos modelos se probaron con un "conjunto de datos de caja negra" de 10000 vídeos no vistos, el modelo con mejor rendimiento tenía sólo un 65.18% de precisión.

También tenemos muchos estudios que analizan el rendimiento de las herramientas de detección de deepfake de IA contra humanos. Por supuesto, los resultados varían de un estudio a otro, pero en general, los humanos igualan o superan la tasa de éxito de las herramientas de detección de deepfake.

Un estudio publicado en 2021 encontró... PNAS Los “observadores humanos comunes” lograron una tasa de precisión ligeramente mayor que las principales herramientas de detección de deepfake. Sin embargo, el estudio también encontró que los participantes humanos y los modelos de IA eran susceptibles a diferentes tipos de errores.

Es interesante que la investigación realizada por... Universidad de Sídney Descubrí que el cerebro humano es inconscientemente más eficaz para detectar deepfakes que nuestros esfuerzos conscientes. Verificar Los principales riesgos de la tecnología deepfake y cómo detectarlos.

Descubra pistas visuales en tecnología deepfake

La ciencia de la detección de deepfakes es compleja y el análisis requerido varía según la naturaleza del metraje. Por ejemplo, un vídeo falso del líder norcoreano Kim Jong Un de 2020 es esencialmente un vídeo de debate. En este caso, la forma más eficaz de detectar deepfakes puede ser analizar los fonemas (movimientos de la boca) y los fonemas (sonidos vocales) en busca de inconsistencias.

Expertos humanos, espectadores comunes y algoritmos pueden realizar este tipo de análisis, incluso si los resultados varían. el especifica Instituto de Tecnología de Massachusetts (MIT) Ocho preguntas para ayudar a identificar vídeos falsos:

  1. Presta atención a la cara.. Las manipulaciones sofisticadas de deepfake a menudo implican transformaciones faciales.
  2. Presta atención a las mejillas y la frente.. ¿La piel parece demasiado suave o demasiado arrugada? ¿La edad de la piel coincide con la edad del cabello y los ojos? Es posible que no coincidan en algunas dimensiones.
  3. Presta atención a los ojos y las cejas.. ¿Aparecen sombras en los lugares que esperas? Es posible que la tecnología deepfake no represente completamente la física natural de la escena.
  4. Presta atención a las gafas.. ¿Hay algún resplandor? ¿Hay mucho deslumbramiento? ¿Cambia el ángulo de deslumbramiento cuando la persona se mueve? Una vez más, es posible que la tecnología deepfake no represente completamente la física natural de la iluminación.
  5. Prestar atención al vello facial o a la falta del mismo.. ¿Este vello facial parece real? La tecnología deepfake puede agregar o eliminar bigote, patillas o barba. Sin embargo, es posible que la tecnología deepfake no logre crear transformaciones del vello facial completamente naturales.
  6. Presta atención a los lunares faciales.. ¿El lunar parece real?
  7. Presta atención a las pestañas.. ¿La persona parpadea lo suficiente o demasiado?
  8. Presta atención a los movimientos de los labios.. Algunas falsificaciones profundas se basan en la sincronización de labios. ¿Los movimientos de tus labios parecen normales?

Las últimas herramientas de detección de deepfake de IA pueden analizar los mismos factores, nuevamente, con distintos grados de éxito. Los científicos de datos también desarrollan constantemente nuevos métodos, como detectar el flujo sanguíneo normal en los rostros de los oradores en pantalla. Nuevos métodos y mejoras a los métodos existentes podrían hacer que las herramientas de detección de deepfake de IA superen consistentemente a los humanos en el futuro.

Detectando pistas de audio en deepfakes

Detectar audio falso es un desafío completamente diferente. Sin las señales visuales del vídeo y la oportunidad de identificar inconsistencias audiovisuales, la detección de deepfakes depende en gran medida del análisis de audio (otros métodos, como la verificación de metadatos, también pueden ayudar en algunos casos).

Encontré un estudio que publicaste. Colegio Universitario de Londres En 2023, los humanos podrán detectar audio falso en un 73% (en inglés y mandarín). Al igual que con los videos falsos, los oyentes humanos a menudo detectan intuitivamente patrones de habla no naturales en el habla generada por IA, incluso si no pueden identificar lo que suena poco natural.

Los signos comunes incluyen:

  1. Las sílabas.
  2. Falta de expresión.
  3. Ruido de fondo o interferencias.
  4. – Inconsistencia en la voz o el habla.
  5. Falta de “plenitud” en los sonidos.
  6. Entrega demasiado escrita.
  7. Sin defectos (arranques en falso, correcciones, carraspeos, etc.).

Una vez más, los algoritmos también pueden analizar la voz en busca de las mismas señales deepfake, pero nuevos métodos están haciendo que las herramientas sean aún más efectivas. Ella describió la investigación que realizó. USENIX Patrones en la reconstrucción del tracto vocal utilizando inteligencia artificial que no logran imitar el habla natural. Todo se reduce a que los generadores de sonido de IA producen un sonido idéntico en tractos vocales estrechos (aproximadamente del tamaño de una pajita) sin los movimientos naturales del habla humana.

Investigaciones anteriores realizadas por Instituto Horst Goertz Analizó audio real y falso en inglés y japonés, revelando diferencias sutiles en las altas frecuencias del habla real y falsa.

Los oyentes humanos y los modelos de detección de IA pueden percibir tanto los contrastes del tracto vocal como las altas frecuencias. En el caso de variaciones de alta frecuencia, los modelos de IA podrían, en teoría, volverse cada vez más precisos, aunque lo mismo podría decirse de los deepfakes de IA.

Los humanos y los algoritmos son engañados por los deepfakes, pero de diferentes maneras

Los estudios sugieren que los humanos y las últimas herramientas de detección de IA pueden detectar de manera similar los deepfakes. Las tasas de aprobación pueden oscilar entre el 50% y el 90+%, según los criterios de la prueba.

Por lo tanto, los humanos y las máquinas también son engañados en grados similares por los deepfakes. Sin embargo, es crucial que seamos vulnerables de diferentes maneras, y este puede ser nuestro mayor activo para abordar los riesgos de la tecnología deepfake. La combinación de las fortalezas de los humanos y las herramientas de detección de deepfake mitigará sus respectivas debilidades y mejorará las tasas de éxito.

Por ejemplo, encontré Investigación del Instituto de Tecnología de Massachusetts Los humanos reconocían mejor imágenes falsas de líderes y celebridades mundiales que los modelos de inteligencia artificial. También reveló que los modelos de IA tuvieron dificultades para captar el audio de varias personas, aunque sugiere que esto puede ser el resultado de que los algoritmos se entrenaron en imágenes que contenían voces individuales.

Por el contrario, el mismo estudio encontró que los modelos de IA superan a los humanos con videos de baja calidad (borrosos, granulados, oscuros, etc.) que pueden usarse intencionalmente para engañar a los espectadores humanos. Asimismo, los métodos modernos de detección de IA, como el seguimiento del flujo sanguíneo en zonas específicas de la cara, implican análisis que los humanos no pueden realizar.

A medida que se desarrollen más métodos, no solo mejorará la capacidad de la IA para detectar señales que no podemos detectar, sino también su capacidad para engañar. La gran pregunta es si la tecnología de detección de deepfakes puede superar a los propios deepfakes. Verificar ¿Cómo afrontar la amenaza del secuestro virtual y protegerse en línea? Reconocer amenazas.

preguntas comunes

P1. ¿Qué es la tecnología deepfake?

Los deepfakes son una tecnología que utiliza inteligencia artificial para crear contenido visual o de audio que parece ser producido por sujetos humanos con gran precisión.

P2. ¿Cuáles son los usos de los deepfakes?

La tecnología deepfake se utiliza en una amplia gama de aplicaciones, incluidas películas, la industria del juego, seguridad, fraude y más.

P3. ¿Cómo se pueden detectar los deepfakes?

Hay avances continuos en las técnicas de detección de deepfakes con contribuciones de la inteligencia artificial, pero las herramientas y métodos humanos aún son necesarios.

P4. ¿Cuáles son los desafíos que enfrenta la detección de deepfakes?

Entre los desafíos se encuentran el desarrollo continuo de tecnologías de falsificación y la dificultad para distinguir entre contenido real y deepfakes.

P5. ¿Puede la inteligencia artificial superar a los humanos en la detección de falsificaciones profundas?

La inteligencia artificial está logrando avances significativos, pero las capacidades humanas siguen siendo importantes en este contexto.

Ver las cosas de otra manera en la era de los deepfakes

Las herramientas de detección de deepfakes basadas en inteligencia artificial seguirán mejorando, al igual que la calidad del propio contenido deepfake. Si la capacidad de la IA para engañar excede su capacidad para detectar (como es el caso de los textos generados por IA), el juicio humano puede ser la única herramienta que nos queda para luchar contra los deepfakes.

Es responsabilidad de todos reconocer los signos de los deepfakes y cómo detectarlos. Además de protegernos de estafas y amenazas a la seguridad, todo lo que discutimos y compartimos en línea es vulnerable a la desinformación si perdemos la comprensión de la realidad. Puedes ver ahora Riesgos de escribir contenido de IA y cómo detectar texto generado por IA.

Ir al botón superior