Los principales riesgos de la tecnología deepfake y cómo detectarlos

En un mundo donde su identidad en línea está directamente vinculada, la perspectiva de una repetición perfecta de su apariencia es preocupante. Pero eso es exactamente a lo que nos enfrentamos con el advenimiento de la tecnología deepfake.

A medida que la tecnología se vuelve más barata y fácil de usar, ¿cuáles son los peligros de las falsificaciones profundas? Además, ¿cómo se detecta un deepfake en comparación con el trato real?

Los principales riesgos de la tecnología deepfake y cómo detectarlos - Artículos

¿Qué es una falsificación profunda?

Deepfakes es el término para los medios en los que una persona en un video o una foto es reemplazada por la apariencia de otra persona. El término es una combinación deaprendizaje profundo" Y el "el falsoUtiliza algoritmos de aprendizaje automático e inteligencia artificial para crear medios que parecen perfectamente realistas pero que son artificiales.

En su forma más simple, puede encontrar una cara superpuesta en otro modelo. En su peor momento, la tecnología deepfake incrusta a víctimas desprevenidas en videos porno falsos, noticias falsas, engaños y más.

¿Cuáles son los riesgos de las falsificaciones profundas?

fotos falsas siempre presente. Detectar lo que es falso y lo que no es una parte común de la vida, especialmente después del auge de los medios digitales. Pero los problemas que crea la tecnología deepfake son diferentes y brindan una precisión sin igual para las fotos falsas y los videos reproducidos.

Uno de los primeros videos falsos profundos en llegar a una audiencia más amplia fue Jordan Peele, quien se hizo pasar por Barack Obama en un video que analiza el tema en cuestión:

El video se ve tosco, con un sonido extraño y algunos bultos en la cara del clon. Sin embargo, demuestra la técnica de la falsificación profunda.

¿O alguna vez te has preguntado cómo sería si Will Smith interpretara a Neo en The Matrix en lugar de Keanu Reeves (quiero decir, quién no lo hizo?)? No me pregunto más:

Estos videos no son maliciosos, ya que se necesitan cientos de horas de aprendizaje automático para compilarlos. Pero la tecnología en sí está disponible para cualquiera que tenga suficiente tiempo para aprender y el poder de cómputo que la acompaña. El obstáculo para usar la técnica de falsificación profunda fue muy alto al principio. Pero a medida que la tecnología mejora y las barreras de entrada caen drásticamente, cada vez más personas comienzan a usar deepfakes para muchas cosas negativas y dañinas.

Antes de profundizar en el lado oscuro de la tecnología deepfake, aquí está Jim Carrey, quien reemplazó a Jack Nicholson en El resplandor:

Los principales riesgos de la tecnología deepfake y cómo detectarlos - Artículos

1. Pornografía falsa de varias celebridades.

Una de las principales amenazas de la tecnología deepfake está en la pornografía, o pornografía falsa como se la conoce. Hay decenas de miles de videos falsos que muestran los rostros de mujeres famosas como Emma Watson, Natalie Portman y Taylor Swift.

Todos usan algoritmos de aprendizaje automático falsos para cortar la cara de una celebridad en el cuerpo de una actriz, y todos atraen decenas de millones de visitas en muchos sitios web de contenido para adultos.

Sin embargo, ninguno de estos sitios web hace nada sobre las falsificaciones profundas de celebridades.

Jorge Patrini dice: "Hasta que no haya una razón sólida para tratar de filtrarlos, no pasará nada". “La gente seguirá siendo libre de cargar este tipo de material sin ninguna consecuencia para estos sitios web vistos por cientos de millones de personas”.

Los videos son explotadores y están lejos de estar libres de víctimas, ya que algunos creadores afirman que son deepfakes.

2. Pornografía falsa que afecta a la gente común

¿Qué es peor que el porno falso de celebridades? Así es: pornografía falsa que muestra mujeres que son menos famosas o impredecibles por lo que sucede a su alrededor y cuyas vidas pueden verse dañadas si se las falsifica en videos pornográficos o algo así. Un estudio de Cinecity ha revelado un bot deepfake en la aplicación de mensajería social Telegram, que ha creado más de 100.000 fotos falsas de desnudos. Muchas fotos fueron robadas de cuentas de redes sociales, que incluyen novios, novias, esposas, madres, etc.

El bot es un avance importante en la tecnología de falsificación profunda, ya que el bot de carga de imágenes no necesita conocimientos actuales sobre falsificación profunda, aprendizaje automático o inteligencia artificial. Es un proceso automatizado que requiere una sola imagen. Además de eso, el bot de Telegram solo parece funcionar con fotos de mujeres, y las suscripciones premium (más fotos, marca de agua eliminada) son muy baratas.

Al igual que las imágenes falsas de celebridades, las imágenes falsas de bots de Telegram son explotadoras, abusivas e inmorales. Puede acceder fácilmente a la bandeja de entrada de un cónyuge, pareja, miembro de la familia, colega o propietario de un negocio, lo que podría arruinar vidas en el proceso. El potencial de extorsión y otras formas de extorsión es muy alto y aumenta la amenaza de los problemas existentes, como la pornografía vengativa.

Difundir deepfakes en Telegram también genera otro problema. Telegram es un servicio de mensajería que se enfoca en la privacidad y no interfiere mucho con sus usuarios. Tiene una política para eliminar los bots pornográficos y otros bots relacionados con material para adultos, pero no ha hecho nada en este caso.

3. Material engañoso

Has visto a Jordan Peele interpretar a Obama. En este video, advierte sobre los peligros de las falsificaciones profundas. Una de las principales preocupaciones sobre la tecnología deepfake es que alguien cree y publique un video que sea tan realista que de alguna manera conduzca a una tragedia.

En los extremos de la escala, algunas personas dicen que el contenido de video falso podría desencadenar una guerra. Pero también hay otras grandes consecuencias. Por ejemplo, un video falso que muestre a una gran corporación o al director ejecutivo de un banco haciendo una declaración maliciosa podría provocar una caída del mercado de valores. Una vez más, es un extremista. Pero personas reales pueden revisar el video y asegurarse de que sea confiable, mientras que los mercados globales reaccionan instantáneamente a las noticias y se lleva a cabo una venta automatizada.

La otra cosa a considerar es el tamaño. A medida que aumenta el costo de crear contenido deepfake, aumenta la posibilidad de tener cantidades masivas de contenido deepfake para la misma persona, enfocándose en enviar el mismo mensaje falso en diferentes colores, lugares, patrones y más.

4. Negación de material real

Como una extensión del material engañoso y falso, debes considerar que las falsificaciones profundas se volverán increíblemente realistas. Tanto es así que la gente comenzará a cuestionar si el video es real o no, independientemente del contenido.

Si alguien ha cometido un delito y la única evidencia es un video, ¿qué le impide decir: "Es falso, es una evidencia falsa"? Por el contrario, ¿qué hay de plantar pruebas de video falsas para que alguien las encuentre?

5. Guiado por pensamientos falsos y contactos sociales.

De hecho, ha habido muchos casos relacionados con contenido deepfake que pretende ser guiado por el pensamiento. Los perfiles en LinkedIn y Twitter detallan roles de alto nivel en organizaciones estratégicas; sin embargo, estas personalidades no existen y es probable que se creen utilizando tecnología deepfake.

Sin embargo, este no es un problema específico de los deepfakes. Desde los albores de la historia, los gobiernos, las redes de espionaje y las corporaciones han utilizado perfiles y personalidades falsos para recopilar información, promover agendas y manipular.

6. Estafas de phishing, ingeniería social y otras estafas

La ingeniería social ya es un problema cuando se trata de seguridad. La gente quiere confiar en los demás. Esto está en nuestra naturaleza. Pero esta confianza puede conducir a violaciones de seguridad, robo de datos y más. La ingeniería social a menudo requiere una conexión personal, ya sea por teléfono, mediante una videollamada, etc.

Digamos que alguien puede usar deep fake para imitar a un gerente comercial para obtener acceso a códigos de seguridad u otra información confidencial. En este caso, podría dar lugar a una avalancha de estafas deepfake.

Cómo reconocer y detectar deepfakes

A medida que aumenta la calidad de los deepfakes, es importante descubrir métodos de deepfakes. En los primeros días, hubo algunas anécdotas menores: imágenes borrosas, corrupción y golpes de video, y otras fallas. Sin embargo, estos problemas reveladores están disminuyendo mientras que el costo del uso de la tecnología está cayendo rápidamente.

No existe una manera perfecta de detectar contenido deepfake, pero aquí hay cuatro consejos útiles:

  • los detalles. A pesar de lo buena que se ha vuelto la tecnología deepfake, todavía hay partes pequeñas con las que luchar. En particular, detalles minuciosos en videos, como el movimiento del cabello, el movimiento de los ojos, las estructuras de las mejillas, el movimiento durante el habla y las expresiones faciales anormales. Gran movimiento de ojos. Aunque los deepfakes ahora pueden flashear de manera efectiva (en los primeros días, esto era una señal importante), el movimiento de los ojos seguía siendo un problema.
  • sentimientos. El apego al detalle es pasión. Si alguien está haciendo una declaración fuerte, su rostro mostrará una variedad de emociones mientras brinda detalles. Una técnica de falsificación profunda no puede ofrecer la misma profundidad de emoción que una persona real.
  • inconsecuencia. La calidad del video está en su punto más alto. El teléfono inteligente en su bolsillo puede grabar y transmitir en 4K. Si un líder político hace una declaración, está frente a una sala llena de equipos de grabación de primer nivel. Por lo tanto, la mala calidad de grabación, tanto visual como audible, es una contradicción notable.
  • Fuente. ¿El video aparece en una plataforma verificada? Las plataformas de redes sociales utilizan la verificación para asegurarse de que no se imiten personas conocidas a nivel mundial. Claro, hay problemas con las plataformas. Pero verificar dónde se transmite o aloja un video particularmente explícito lo ayudará a saber si es real. También puedes probar Realizar una búsqueda inversa de imágenes Para detectar otros lugares donde se encuentra la imagen en Internet.

Herramientas profundas de detección y prevención de falsificaciones

No está solo en la lucha contra la detección de falsificaciones profundas. Varias empresas tecnológicas importantes están desarrollando herramientas para detectar falsificaciones profundas, mientras que otras plataformas están tomando medidas para prevenir las falsificaciones profundas de forma permanente.

Por ejemplo, la herramienta de detección de falsificaciones profundas de Microsoft, Microsoft Video Authenticator, analizará en cuestión de segundos e informará al usuario de su autenticidad (consulte el archivo GIF a continuación para ver un ejemplo). Al mismo tiempo, Adobe le permite firmar contenido digitalmente para protegerlo de manipulaciones.

Plataformas como Facebook y Twitter ya han prohibido el contenido falso profundo malicioso (el contenido falso profundo como Will Smith en The Matrix sigue siendo un juego justo), mientras que Google está trabajando en una herramienta de análisis de texto a voz para contrarrestar los fragmentos de audio falsos.

Llegan los deepfakes, y cada vez son mejores

El hecho es que, desde que la tecnología deepfake se generalizó en 2018, su uso principal es abusar de las mujeres. Ya sea creando pornografía falsa usando la cara de una celebridad o desnudando a alguien en las redes sociales, todo se enfoca en explotar, manipular y humillar a las mujeres de todo el mundo.

No hay duda de que se avecina una rebelión de deepfake. El auge de dicha tecnología representa un peligro para el público, pero hay pocos recursos para detener su avance.

Ir al botón superior