menu
Opinión Enero 18, 2019, 11 59am

Deepfakes y la nueva guerra de desinformación

La era de la geopolítica post-verdad

Autor: Robert Chesney y Danielle Citron


(Traducción de Alejandro Garvie)
Una imagen puede valer más que mil palabras, pero no hay nada que convenza más que una grabación de audio o el video de un hecho. En un momento en que partidarios de uno u otro lado apenas pueden ponerse de acuerdo sobre los hechos, tal persuasión podría parecer que podría aportar una bienvenida claridad. Las grabaciones de audio y video permiten que las personas se conviertan en testigos directos de un evento, evitándoles la necesidad de decidir si confiar en alguien más. Y gracias a los teléfonos inteligentes, que facilitan la captura de contenido de audio y video, y las plataformas de redes sociales, que permiten que ese contenido se comparta y consuma, hoy las personas pueden confiar en sus propios ojos y oídos en un grado sin precedentes.
Ahí radica un gran peligro. Imagine un video que muestre al primer ministro israelí en una conversación privada con un colega, que aparentemente revela un plan para llevar a cabo una serie de asesinatos políticos en Teherán. O un clip de audio de funcionarios iraníes que planean una operación encubierta para asesinar a líderes sunitas en una provincia particular de Irak. O un video que muestra a un general estadounidense en Afganistán quemando un Corán. En un mundo ya preparado para la violencia, tales grabaciones tendrían un poderoso potencial de incitación. Ahora imagine que estas grabaciones podrían falsificarse utilizando herramientas disponibles para casi cualquier persona con una computadora portátil y acceso a Internet, y que las falsificaciones resultantes sean tan convincentes que son imposibles de distinguir de las reales.
Los avances en la tecnología digital pronto podrían hacer de esta pesadilla una realidad. Gracias al surgimiento de deepfakes (falsesdades profundas), manipulaciones digitales de audio o video altamente realistas y difíciles de detectar, cada vez es más fácil retratar a alguien diciendo o haciendo algo que él o ella nunca dijo o hizo. Peor aún, es probable que los medios para deepfakes proliferen rápidamente, produciendo un círculo cada vez más amplio de actores capaces de desplegarlos con fines políticos. La desinformación es un arte antiguo, por supuesto, y uno con una relevancia renovada en la actualidad. Pero a medida que la tecnología deepfake se desarrolla y se expande, las guerras de desinformación actuales pronto se verán como el equivalente propagandístico de la era de las espadas y los escudos.
El amanecer de los Deepfakes
Las deepfakes son el producto de avances recientes de una forma de inteligencia artificial conocida como “aprendizaje profundo”, en la que conjuntos de algoritmos denominados “redes neuronales” aprenden a inferir reglas y replicar patrones mediante la selección de grandes conjuntos de datos. (Google, por ejemplo, ha utilizado esta técnica para desarrollar potentes algoritmos de clasificación de imágenes para su motor de búsqueda). Las deepfakes surgen de un tipo específico de aprendizaje profundo en el que pares de algoritmos se enfrentan entre sí en “redes adversas generativas” o GANs. En una GAN, un algoritmo, el "generador", crea contenido modelado en datos de origen (por ejemplo, haciendo imágenes artificiales de gatos a partir de una base de datos de imágenes de gatos reales), mientras que un segundo algoritmo, el “discriminador”, intenta detectar contenido artificial (selecciona las imágenes de gato falso). Dado que los algoritmos se entrenan constantemente entre sí, estos emparejamientos llevan a una mejora constante, lo que permite a GANS producir contenido de audio y video altamente realista pero falso.
Esta tecnología tiene el potencial de proliferar ampliamente. Los servicios comerciales e incluso los servicios gratuitos de deepfake ya han aparecido en el mercado abierto y es probable que surjan en el mercado negro versiones con alarmantes pocas garantías. La difusión de estos servicios reducirá las barreras de entrada, lo que significa que pronto, la única restricción práctica sobre la capacidad para producir una deepfake será el acceso a los materiales de entrenamiento - es decir, el audio y el video de la persona a modelar - para alimentar a los GAN. La capacidad para crear falsificaciones de nivel profesional estará al alcance de casi todas las personas con suficiente interés y el conocimiento de dónde acudir para obtener ayuda.
Deepfakes tiene una serie de aplicaciones dignas. El audio o video modificado de una figura histórica, por ejemplo, podría crearse con el propósito de educar a los niños. Una compañía incluso afirma que puede usar la tecnología para restaurar el habla a las personas que han perdido la voz debido a una enfermedad. Pero las deepfakes también pueden y serán utilizados para propósitos más oscuros. Los usuarios ya han empleado la tecnología deepfake para insertar rostros de personas en la pornografía sin su consentimiento o conocimiento, y la creciente facilidad para crear contenido falso de audio y video creará amplias oportunidades para el chantaje, la intimidación y el sabotaje. Sin embargo, las aplicaciones más aterradoras de la tecnología deepfake pueden estar en los ámbitos de la política y los asuntos internacionales. Allí pueden usarse para crear mentiras inusualmente efectivas capaces de incitar a la violencia, desacreditar a los líderes e instituciones, o incluso amañar elecciones.
Las deepfakes tienen el potencial de ser especialmente destructivos porque están llegando en un momento en el que ya es cada vez más difícil separar los hechos de la ficción. Durante gran parte del siglo XX, las revistas, los periódicos y las emisoras de televisión gestionaron el flujo de información al público. Los periodistas establecieron estándares profesionales rigurosos para controlar la calidad de las noticias, y el número relativamente pequeño de medios de comunicación masivos significó que solo un número limitado de individuos y organizaciones podrían distribuir información ampliamente. Sin embargo, durante la última década, más y más personas han comenzado a obtener su información de las plataformas de redes sociales, como Facebook y Twitter, que dependen de una amplia gama de usuarios para generar contenido, relativamente sin filtro. Los usuarios tienden a seleccionar sus experiencias para que, en su mayoría, encuentren perspectivas con las que ya están de acuerdo (una tendencia acentuada por los algoritmos de las plataformas), convirtiendo sus feeds de redes sociales en cámaras de eco. Estas plataformas también son susceptibles a las llamadas cascadas de información, por lo que las personas transmiten información compartida por otros sin molestarse en verificar si es cierta, lo que la hace más creíble en el proceso. El resultado final es que las falsedades pueden propagarse más rápido que nunca.
Estas dinámicas harán que las redes sociales sean un terreno fértil para la circulación de deepfakes, con implicaciones potencialmente explosivas para la política. El intento de Rusia de influir en las elecciones presidenciales de 2016 en Estados Unidos difundiendo mensajes polémicos y políticamente inflamatorios en Facebook y Twitter - ya demostró la facilidad con que se puede inyectar la desinformación en el torrente sanguíneo de las redes sociales. Las deepfakes del mañana serán más vívidas y realistas y, por lo tanto, más compartibles que las noticias falsas de 2016. Y dado que las personas son especialmente propensas a compartir información negativa y novedosa, cuanto más crueles sean las falsificaciones, mejor.
 
Democratizando el fraude
El uso del fraude, la falsificación y otras formas de engaño para influir en la política no es nada nuevo, por supuesto. Cuando el USS Maine explotó en el puerto de La Habana en 1898, los tabloides estadounidenses utilizaron relatos engañosos del incidente para incitar al público a la guerra con España. Los protocolos del tracto antisemita de los Sabios de Sión, que describía una conspiración judía ficticia, circuló ampliamente durante la primera mitad del siglo XX. Más recientemente, tecnologías como Photoshop han hecho que manipular imágenes sea tan fácil como falsificar texto. Lo que hace que deepfakes no tenga precedentes es su combinación de calidad, aplicabilidad a formatos persuasivos como audio y video, y resistencia a la detección. Y a medida que se extienda esta tecnología, un número cada vez mayor de actores podrá manipular de manera convincente el contenido de audio y video de una manera que alguna vez se restringió a los estudios de Hollywood o las agencias de inteligencia mejor financiadas.
Las deepfakes serán particularmente útiles para los actores no estatales, como los grupos insurgentes y las organizaciones terroristas, que históricamente han carecido de los recursos para crear y difundir contenido de audio o video fraudulento, pero creíble. Estos grupos podrán representar a sus adversarios, incluidos los funcionarios del gobierno, lanzando palabras inflamatorias o participando en acciones provocativas, con el contenido específico cuidadosamente seleccionado para maximizar el impacto galvanizador en sus audiencias objetivo. Un miliciano del Estado Islámico (ISIS), por ejemplo, podría crear un video que muestre a un soldado estadounidense disparando a civiles o discutiendo un plan para bombardear una mezquita, ayudando así al reclutamiento del grupo terrorista. Dichos videos serán especialmente difíciles de desacreditar en los casos en que el público objetivo ya desconfíe de la persona que se muestra en la deepfake. Los Estados pueden y, sin duda, harán un uso paralelo de las deepfakes para socavar a sus oponentes no estatales.
Las deepfakes también exacerbarán las guerras de desinformación que perturban cada vez más a la política interna en los Estados Unidos y en otros lugares. En 2016, las operaciones de desinformación patrocinadas por Rusia tuvieron un éxito notable en la profundización de las divisiones sociales existentes en los Estados Unidos. Para citar solo un ejemplo, las cuentas rusas falsas en las redes sociales que afirman estar afiliadas al movimiento Black Lives Matter compartieron contenido inflamatorio diseñado específicamente para alimentar las tensiones raciales. La próxima vez, en lugar de tweets y publicaciones en Facebook, tal desinformación podría venir en la forma de un video falso de un oficial de policía blanco gritando insultos raciales o un activista de Black Lives Matter llamando a la violencia.
Quizás la amenaza más aguda asociada con las deepfakes es la posibilidad de que una falsificación oportuna pueda inclinar una elección. En mayo de 2017, Moscú intentó algo en este sentido. En la víspera de la elección francesa, los piratas informáticos rusos intentaron socavar la campaña presidencial de Emmanuel Macron al liberar una carpeta de documentos robados, muchos de ellos manipulados. Ese esfuerzo fracasó por varias razones, incluida la naturaleza relativamente aburrida de los documentos y los efectos de una ley francesa de medios de comunicación que prohíbe la cobertura electoral en las 44 horas inmediatamente anteriores a la votación. Pero en la mayoría de los países, la mayoría de las veces, no hay un apagón en los medios de comunicación, y la naturaleza de las deepfakes significa que se puede garantizar que el contenido dañino sea injuriante o peor. Un video convincente en el que Macron parecía admitir la corrupción, lanzado en las redes sociales solo 24 horas antes de la elección, podría haberse propagado como un incendio forestal imposible de desacreditar a tiempo.
Las deepfakes también pueden erosionar la democracia de otras formas menos directas. El problema no es solo que pueden usarse para avivar las divisiones sociales e ideológicas. Pueden crear un “dividendo del mentiroso”: a medida que las personas se vuelven más conscientes de la existencia de las deepfakes, las figuras públicas atrapadas en grabaciones genuinas de mala conducta encontrarán más fácil arrojar dudas sobre la evidencia en su contra. (Si las deepfakes hubieran tenido gran prevalencia en las elecciones presidenciales de EE. UU., imagínese lo fácil que habría sido para Donald Trump haber cuestionado la autenticidad de la infame cinta de audio en la que habla sobre mujeres indecentes). Más ampliamente, a medida que el público se sensibiliza la amenaza de las deepfakes, puede volverse menos propenso a confiar en las noticias en general. Y los periodistas, por su parte, pueden volverse más cautelosos acerca de confiar, y mucho menos publicar, el audio o el video de los eventos de vanguardia por temor a que resulten falsificadas.
Arreglo profundo
No hay una bala de plata para contrarrestar las deepfakes. Existen varios enfoques legales y tecnológicos, algunos ya existentes y otros que probablemente surjan, que pueden ayudar a mitigar la amenaza. Pero ninguno superará el problema por completo. En lugar de soluciones completas, el surgimiento de deepfakes exige resiliencia.
Tres enfoques tecnológicos merecen especial atención. El primero se refiere a la tecnología forense, o la detección de falsificaciones a través de medios técnicos. Así como los investigadores están dedicando mucho tiempo y esfuerzo a crear falsificaciones creíbles, también están desarrollando métodos de detección mejorada. En junio de 2018, científicos informáticos de Dartmouth y la Universidad de Albany, SUNY, anunciaron que habían creado un programa que detecta deepfakes buscando patrones anormales de movimiento de los párpados de una persona en un video. Sin embargo, en la carrera de armamentos de las deepfakes, tales avances solo sirven para informar la próxima ola de innovación. En el futuro, los GANS recibirán videos de entrenamiento que incluyen ejemplos de parpadeo normal. E incluso si surgen algoritmos de detección extremadamente capaces, la velocidad con la que pueden circular las falsificaciones en las redes sociales hará que desmantelarlas sea una batalla cuesta arriba. Para cuando suene la campana de alarma forense, es posible que el daño ya esté hecho.
Un segundo remedio tecnológico consiste en autenticar el contenido antes de que se propague, un enfoque a veces denominado solución de “procedencia digital”. Compañías como Truepic están desarrollando formas de firmar digitalmente el contenido de audio, foto y video en el momento de su creación, utilizando metadatos que se pueden registrar de forma inmutable en un libro de contabilidad distribuido o blockchain. En otras palabras, uno podría estampar efectivamente el contenido con un registro de autenticidad que podría usarse más adelante como una referencia para comparar con las falsificaciones sospechosas.
En teoría, las soluciones de procedencia digital son un arreglo ideal al problema. En la práctica, se enfrentan a dos grandes obstáculos. En primer lugar, tendrían que implementarse de manera ubicua en la amplia gama de dispositivos que capturan contenido, incluyendo computadoras portátiles y teléfonos inteligentes. En segundo lugar, su uso debería ser una condición previa para cargar contenido en las plataformas digitales más populares, como Facebook, Twitter y YouTube. Ninguna condición es probable que se cumpla. Fabricantes de dispositivos, en ausencia de alguna obligación legal o normativa, no adoptarán la autenticación digital hasta que sepan que es asequible, esté en demanda y sea poco probable que interfiera con el rendimiento de sus productos. Y pocas plataformas de medios sociales querrán impedir que las personas suban contenido no autenticado, especialmente cuando el primero en hacerlo corre el riesgo de perder cuota de mercado frente a competidores menos rigurosos.
Un tercer enfoque tecnológico, más especulativo, implica lo que se ha denominado “servicios de coartada autenticados”, que pronto podrían comenzar a surgir del sector privado. Considere que las deepfakes son especialmente peligrosas para las personas de alto perfil, como políticos y celebridades, con una reputación valiosa pero frágil. Para protegerse, algunos de estos individuos pueden optar por participar en formas mejoradas de “vida loggeada”, la práctica de registrar casi todos los aspectos de la vida de uno, para demostrar dónde estaban y qué decían o hacían en cualquier momento. Las compañías podrían comenzar a ofrecer paquetes de servicios de coartada, incluidos los wearables (relojes y dispositivos electrónicos corporales que almacenan datos n. del t.) para hacer el registro de vida conveniente y hacer frente a la gran cantidad de datos resultantes y la autenticación confiable de los mismos. Estos paquetes podrían incluir asociaciones con las principales plataformas de noticias y redes sociales, lo que permitiría una rápida confirmación o desacreditación del contenido.
Tal enfoque sería profundamente invasivo, y muchas personas no querrían tener nada que ver con eso. Pero además de los individuos de alto perfil que deciden adoptar el salvavidas para protegerse, algunos empleadores pueden comenzar a insistir en que se apliquen a ciertas categorías de empleados, así como los departamentos de policía exigen cada vez más a los agentes que usen cámaras corporales. E incluso si solo un número relativamente pequeño de personas realizara un intenso registro de su vida, producirían vastos depósitos de datos en los cuales el resto de nosotros nos encontraríamos atrapados inadvertidamente, creando una red de vigilancia masiva de compañeros a compañeros para registrar constantemente nuestras actividades.
El aspecto legal
Si estas soluciones tecnológicas tienen ventajas limitadas, ¿qué hay de los remedios legales? Dependiendo de las circunstancias, hacer o compartir deepfakes puede constituir difamación, fraude o apropiación indebida de la imagen de una persona, entre otras violaciones civiles y penales. En teoría, se podrían cerrar los vacíos restantes al criminalizar (o atribuir la responsabilidad civil a actos específicos, como, por ejemplo, crear una deepfake de una persona real con la intención de engañar a un espectador u oyente y con la expectativa de que este engaño cause cierto tipo específico de daño. Pero podría ser difícil hacer que estos reclamos o cargos se mantengan en la práctica. Para empezar, es probable que resulte muy difícil atribuir la creación de una deepfake a una persona o grupo en particular. E incluso si se identifica a los perpetradores, pueden estar fuera del alcance de un tribunal, como en el caso de los gobiernos extranjeros.
Otra solución legal podría ser incentivar a las plataformas de medios sociales para que hagan más para identificar y eliminar las fallas o el contenido fraudulento de manera más general. Según la ley actual de los EE. UU., las compañías que poseen estas plataformas son en gran medida inmunes a la responsabilidad por el contenido que albergan, gracias a la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996. El Congreso podría modificar esta inmunidad, tal vez modificando la Sección 230 para que las empresas sean responsables. Información dañina y fraudulenta distribuida a través de sus plataformas, a menos que hayan hecho esfuerzos razonables para detectarla y eliminarla. Otros países han utilizado un enfoque similar para un problema diferente: en 2017, por ejemplo, Alemania aprobó una ley que impone multas severas a las compañías de medios sociales que no lograron eliminar el contenido racista o amenazador dentro de las 24 horas posteriores a su notificación.
Sin embargo, este enfoque traería otros desafíos. En particular, podría llevar a una censura excesiva. Las empresas ansiosas por evitar la responsabilidad legal probablemente cometerían errores en una cautela policial excesiva, y los propios usuarios podrían comenzar a autocensurarse para evitar el riesgo de que se suprima su contenido. Está lejos de ser obvio que los beneficios de una mejor protección contra el fraude justificarían estos costos para la libre expresión. Un sistema así también correría el riesgo de aislar a las plataformas tradicionales, que tienen los recursos para controlar el contenido y pagar las batallas legales, contra la competencia de las empresas más pequeñas.
Vivir con mentiras
Pero, aunque las deepfakes sean peligrosas, no necesariamente serán desastrosas. La detección mejorará, los fiscales y los demandantes ocasionalmente obtendrán victorias legales contra los creadores de falsificaciones dañinas, y las principales plataformas de medios sociales mejorarán gradualmente al marcar y eliminar contenido fraudulento. Y las soluciones de procedencia digital podrían, si se adoptan ampliamente, proporcionar un arreglo más duradero en el futuro.
Mientras tanto, las sociedades democráticas tendrán que aprender la resiliencia. Por un lado, esto significará aceptar que el contenido de audio y video no puede tomarse a simple vista; por otro lado, significará luchar contra el descenso a un mundo posterior a la verdad, en el que los ciudadanos se retiran a sus burbujas de información privada y consideran como un hecho solo lo que adula sus propias creencias. En resumen, las democracias tendrán que aceptar una verdad incómoda: para sobrevivir a la amenaza de las deepfake, tendrán que aprender a vivir con mentiras.
Publicado en Foreign Affairs en enero-febrero de 2019.
Link https://www.foreignaffairs.com/articles/world/2018-12-11/deepfakes-and-new-disinformation-war?
 
 
 
 

Noticias Relacionadas