Los políticos estadounidenses están cada vez más preocupados por las obviedades: un nuevo tipo de edición de video asistida por Inteligencia Artificial que es capaz de crear resultados realistas con un mínimo esfuerzo.

Esta preocupación quedó en evidencia ayer, cuando un trío de legisladores decidió enviar una carta al Director de Inteligencia Nacional, Dan Coats, pidiéndole que evalúe la amenaza que representa para la seguridad nacional esta nueva forma que ha asumido la tecnología.

La carta dice que las “falsificaciones digitales hiperrealistas” que muestran “representaciones convincentes de personas que hacen o dicen cosas que nunca hicieron” podrían usarse para chantajear y desinformar”. A medida que la tecnología falsa más profunda se vuelve cada vez más avanzada y más accesible, podría representar una importante amenaza para el discurso público y la seguridad nacional, así afirman los firmantes de la carta, los representantes de la Cámara Adam Schiff (D-CA), Stephanie Murphy (D-FL), y Carlos Curbelo (R-FL).

El conjunto de legisladores quiere que la comunidad de inteligencia produzca un informe que incluya descripciones de cuándo se produjeron “deepfakes” confirmados o sospechosos por personas extranjeras (no hay ejemplos actuales de esto), y sugerir contramedidas potenciales.

En un comunicado de prensa, Curbelo expresó que “las falsificaciones profundas tienen el potencial de perturbar cada faceta de nuestra sociedad y desencadenar peligrosas consecuencias nacionales e internacionales” A lo que añadió que “como con cualquier amenaza, nuestra comunidad de inteligencia debe estar preparada para combatir las falsificaciones profundas, vigilantes contra ellos, y estén listos para proteger a nuestra nación y al pueblo estadounidense”.

No obstante esta no es la primera vez que los legisladores han planteado este tipo de problema que podría desenvolverse en la sociedad. A principios de año, los senadores Mark Warner (D-VA) y Marco Rubio (R-FL) advirtieron que los deepfakes deberían ser tratados como una amenaza a la seguridad nacional. En un discurso, Rubio enfatizó que la tecnología podría impulsar campañas de desinformación dirigidas por potencias extranjeras, señalando a Rusia como una amenaza particular.

“Sé que es un hecho que la Federación Rusa al mando de Vladimir Putin intentó sembrar la inestabilidad y el caos en la política estadounidense en 2016”, dijo Rubio. “Lo hicieron a través de Twitter bots y lo hicieron a través de un par de otras medidas que cada vez más saldrán a la luz. Pero ellos no usaron esto. Imagina usar esto. Imagina inyectando esto en una elección”.

De hecho, los Deepfakes tuvieron su primera aparición relevante en 2016 cuando los usuarios de Reddit comenzaron a utilizar la investigación de vanguardia en inteligencia artificial para pegar los rostros de las celebridades en el porno.

Un dato relevante es que el término en sí no se refiere a ninguna investigación en particular, sino que es un acrónimo particular que combina “aprendizaje profundo” con “falsificaciones”. La frase fue utilizada por primera vez por un usuario de Reddit, pero lentamente se está convirtiendo en sinónimo de una amplia gama de edición IA. Esta es una herramienta muy poderosa que es capaz de convertir a las personas en títeres virtuales, sincronizar sus bocas con el habla de otra persona o simplemente hacer parecer que bailan como un profesional.

Varias organizaciones, incluidos laboratorios universitarios, Startups e incluso parte de las fuerzas armadas, están examinando formas de detectar de manera confiable los Deepfakes. Estos incluyen métodos como detectar patrones de parpadeo irregulares o un tono de piel poco realista.

Sin embargo, los investigadores coinciden en que no existe un único método que logre detectar a los Deepfakes, y que cualquier herramienta de detección de fallas profundas que pudiera ser diseñada pronto será engañada por nuevas versiones de la tecnología que aún se encuentra en desarrollo. En cualquier caso, incluso si hubiera una manera sencilla de detectar las fallas profundas, no necesariamente esto lograría impedir que la tecnología se use maliciosamente por los usuarios del mundo.

Efectivamente, el potencial que tiene esta tecnología para ser usada con propósitos deshonestos queda en evidencia por el conjunto de noticias falsas que han estado rondando en las redes sociales como Facebook.

No obstante, el problema no se limita a encontrar una herramienta efectiva para detectar los deepfakes, luego están aquellos a los que independientemente la tecnología logre engañar.

“Este es un paso constructivo”, le dijo Stewart Baker, ex asesor general de la Agencia de Seguridad Nacional, a The Washington Post. “Una cosa es que los académicos y los expertos en tecnología digan que los deepfakes son un problema, y ​​otra cosa es que la comunidad de inteligencia diga lo mismo. Hace que la preocupación sea algo que el Congreso pueda abordar sin temor a ser cuestionado sobre cuán grande es el problema”.

Dejar respuesta

Please enter your comment!
Please enter your name here

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.