Las Mentiras Profundas (Deepfakes) y la nueva guerra de desinformación

Mentiras verdaderas: fotos de un video falso de Barack Obama creado por investigadores en 2017. Universidad de Washington

Por Robert Chesney y Danielle Citron

Una imagen puede valer más que mil palabras, pero no hay nada que convenza más que una grabación de audio o video de un evento. En un momento en que los partidarios apenas pueden ponerse de acuerdo sobre los hechos, tal persuasión podría parecer que podría traer una claridad bienvenida. Las grabaciones de audio y video permiten que las personas se conviertan en testigos de primera mano de un evento, lo que les ahorra la necesidad de decidir si confiar en la cuenta de otra persona. Y gracias a los teléfonos inteligentes, que facilitan la captura de contenido de audio y video, y las plataformas de redes sociales, que permiten compartir y consumir ese contenido, las personas de hoy pueden confiar en sus propios ojos y oídos en

Ahí radica un gran peligro. Imagine un video que muestra al primer ministro israelí en una conversación privada con un colega, que aparentemente revela un plan para llevar a cabo una serie de asesinatos políticos en Teherán. O un clip de audio de funcionarios iraníes que planean una operación encubierta para matar a líderes sunitas en una provincia particular de Irak. O un video que muestra a un general estadounidense en Afganistán quemando un Corán. En un mundo ya preparado para la violencia, tales grabaciones tendrían un gran potencial de incitación. Ahora imagine que estas grabaciones podrían falsificarse utilizando herramientas disponibles para casi cualquier persona con una computadora portátil y acceso a Internet, y que las falsificaciones resultantes son tan convincentes que es imposible distinguirlas de las reales. un grado sin precedentes.

Los avances en la tecnología digital  pronto podrían hacer realidad esta pesadilla. Gracias al auge de los “deepfakes”, manipulaciones digitales de audio o video altamente realistas y difíciles de detectar, cada vez es más fácil representar a alguien diciendo o haciendo algo que nunca dijo o hizo. Peor aún, es probable que los medios para crear falsificaciones profundas proliferen rápidamente, produciendo un círculo cada vez mayor de actores capaces de desplegarlos con fines políticos . La desinformación es un arte antiguo, por supuesto, y uno con una relevancia renovada hoy. Pero a medida que la tecnología de as mentiras profundas se desarrolla y se propaga, las guerras de desinformación actuales pronto pueden parecer el equivalente de propaganda de la era de las espadas y los escudos.

AMANECER DE LOS PROFUNDOS

Las mentiras profundas (deepfakes) son el producto de los avances recientes en una forma de inteligencia artificial conocida como “aprendizaje profundo”, en la cual los conjuntos de algoritmos llamados “redes neuronales” aprenden a inferir reglas y replicar patrones al examinar grandes conjuntos de datos. (Google, por ejemplo, ha utilizado esta técnica para desarrollar potentes algoritmos de clasificación de imágenes para su motor de búsqueda.) Los deepfakes surgen de un tipo específico de aprendizaje profundo en el que pares de algoritmos se enfrentan entre sí en “redes generativas de confrontación”, o GANS En una GAN, un algoritmo, el “generador”, crea contenido modelado a partir de datos de origen (por ejemplo, haciendo imágenes artificiales de gatos a partir de una base de datos de imágenes reales de gatos), mientras que un segundo algoritmo, el “discriminador”, trata de detectar el contenido artificial (elija las imágenes falsas de gatos).

Esta tecnología tiene el potencial de proliferar ampliamente. Ya han aparecido servicios comerciales e incluso gratuitos de deepfake en el mercado abierto , y es probable que surjan versiones con alarmantemente pocas salvaguardas en el mercado negro. La difusión de estos servicios reducirá las barreras de entrada, lo que significa que pronto, la única restricción práctica sobre la capacidad de uno para producir una falsificación profunda será el acceso a materiales de capacitación, es decir, audio y video de la persona a modelar, para alimentar al GAN La capacidad de crear falsificaciones de nivel profesional estará al alcance de casi cualquier persona con suficiente interés y conocimiento de dónde acudir para obtener ayuda.

Deepfakes tiene una serie de aplicaciones valiosas. El audio o video modificado de una figura histórica, por ejemplo, podría crearse con el propósito de educar a los niños. Una compañía incluso afirma que puede usar la tecnología para restaurar el habla a las personas que han perdido la voz debido a la enfermedad. Pero los deepfakes también pueden y serán utilizados para propósitos más oscuros. Los usuarios ya han empleado la tecnología deepfake para insertar los rostros de las personas en la pornografía sin su consentimiento o conocimiento, y la creciente facilidad de crear contenido falso de audio y video creará amplias oportunidades para el chantaje, la intimidación y el sabotaje. Sin embargo, las aplicaciones más aterradoras de la tecnología deepfake pueden estar en el ámbito de la política y los asuntos internacionales. Allí, las falsificaciones profundas pueden usarse para crear mentiras inusualmente efectivas capaces de incitar a la violencia,Las redes sociales serán un terreno fértil para la circulación de falsificaciones profundas, con implicaciones explosivas para la política.

Los deepfakes tienen el potencial de ser especialmente destructivos porque están llegando en un momento en que ya es cada vez más difícil separar los hechos de la ficción.. Durante gran parte del siglo XX, las revistas, los periódicos y las emisoras de televisión administraron el flujo de información al público. Los periodistas establecieron estándares profesionales rigurosos para controlar la calidad de las noticias, y el número relativamente pequeño de medios de comunicación masiva significaba que solo un número limitado de individuos y organizaciones podían distribuir información ampliamente.

Sin embargo, durante la última década, cada vez más personas han comenzado a obtener su información de plataformas de redes sociales, como Facebook y Twitter, que dependen de una gran variedad de usuarios para generar contenido relativamente sin filtrar. Los usuarios tienden a seleccionar sus experiencias para que en su mayoría encuentren perspectivas con las que ya están de acuerdo (una tendencia realzada por los algoritmos de las plataformas), convirtiendo sus canales de medios sociales en cámaras de eco. Estas plataformas también son susceptibles a las llamadas cascadas de información, por las cuales las personas transmiten información compartida por otros sin molestarse en verificar si es cierta, lo que hace que parezca más creíble en el proceso. El resultado final es que las falsedades pueden extenderse más rápido que nunca.

Estas dinámicas harán que las redes sociales sean un terreno fértil para la circulación de falsificaciones profundas, con implicaciones potencialmente explosivas para la política. El intento de Rusia de influir en las elecciones presidenciales estadounidenses de 2016, difundiendo mensajes divisivos y políticamente inflamatorios en Facebook y Twitter, ya demostró cuán fácilmente se puede inyectar desinformación en el torrente sanguíneo de las redes sociales. Las falsificaciones profundas del mañana serán más vívidas y realistas y, por lo tanto, más compartibles que las noticias falsas de 2016. Y como las personas son especialmente propensas a compartir información negativa y novedosa, cuanto más lascivas las falsificaciones, mejor.

FRAUDE DEMOCRATIZANTE

El uso del fraude, la falsificación y otras formas de engaño para influir en la política no es nada nuevo, por supuesto. Cuando el USS Maine explotó en el puerto de La Habana en 1898, los tabloides estadounidenses utilizaron relatos engañosos del incidente para incitar al público a la guerra con España. Los protocolos del tracto antisemita de los ancianos de Sión,que describió una conspiración judía ficticia, que circuló ampliamente durante la primera mitad del siglo XX. Más recientemente, tecnologías como Photoshop han hecho que la creación de imágenes sea tan fácil como falsificar texto. Lo que hace que los deepfakes no tengan precedentes es su combinación de calidad, aplicabilidad a formatos persuasivos como audio y video, y resistencia a la detección. Y a medida que se expande la tecnología de deepfake, un número cada vez mayor de actores podrá manipular de manera convincente el contenido de audio y video de una manera que alguna vez estuvo restringida a los estudios de Hollywood o las agencias de inteligencia mejor financiadas.

Deepfakes será particularmente útil para actores no estatales, como grupos insurgentes y organizaciones terroristas., que históricamente no han tenido los recursos para crear y difundir contenido de audio o video fraudulento pero creíble. Estos grupos podrán representar a sus adversarios, incluidos los funcionarios del gobierno, lanzando palabras incendiarias o participando en acciones provocativas, con el contenido específico cuidadosamente elegido para maximizar el impacto galvanizador en sus audiencias objetivo. Un afiliado del Estado Islámico (o ISIS), por ejemplo, podría crear un video que muestre a un soldado estadounidense disparando contra civiles o discutiendo un plan para bombardear una mezquita, ayudando así al reclutamiento del grupo terrorista. Dichos videos serán especialmente difíciles de desacreditar en los casos en que el público objetivo ya desconfíe de la persona que se muestra en el deepfake. Los estados pueden, y sin duda, harán un uso paralelo de las falsificaciones profundas para socavar a sus oponentes no estatales.

Deepfakes también exacerbará las guerras de desinformación que perturban cada vez más la política interna en los Estados Unidos y otros lugares. En 2016, las operaciones de desinformación patrocinadas por el estado de Rusia tuvieron un éxito notable en la profundización de las divisiones sociales existentes en los Estados Unidos. Para citar solo un ejemplo, las cuentas rusas falsas en las redes sociales que afirman estar afiliadas al movimiento Black Lives Matter compartieron contenido inflamatorio diseñado a propósito para avivar las tensiones raciales. La próxima vez, en lugar de tweets y publicaciones de Facebook, dicha desinformación podría venir en forma de un video falso de un oficial de policía blanco gritando insultos raciales o un activista de Black Lives Matter llamando a la violencia.

Quizás la amenaza más aguda asociada con las falsificaciones profundas es la posibilidad de que una falsificación oportuna pueda inclinar una elección. En mayo de 2017, Moscú intentó algo en este sentido. En vísperas de las elecciones francesas, los piratas informáticos rusos intentaron socavar la campaña presidencial de Emmanuel Macron al liberar un alijo de documentos robados, muchos de ellos manipulados. Ese esfuerzo fracasó por varias razones, incluida la naturaleza relativamente aburrida de los documentos y los efectos de una ley de medios francesa que prohíbe la cobertura electoral en las 44 horas inmediatamente anteriores a una votación. Pero en la mayoría de los países, la mayoría de las veces, no hay apagón de los medios, y la naturaleza de las falsificaciones profundas significa que se puede garantizar que el contenido perjudicial sea salaz o peor. Un video convincente en el que Macron parecía admitir la corrupción, 

Las falsificaciones profundas también pueden erosionar la democracia de otras maneras menos directas. El problema no es solo que las falsificaciones profundas se pueden utilizar para avivar las divisiones sociales e ideológicas. Pueden crear un “dividendo de mentiroso”: a medida que las personas se vuelvan más conscientes de la existencia de falsificaciones profundas, las figuras públicas atrapadas en grabaciones genuinas de mal comportamiento encontrarán más fácil poner en duda la evidencia en su contra. (Si las falsificaciones profundas prevalecieran durante las elecciones presidenciales de EE. UU. De 2016, imagine cuán más fácil hubiera sido para Donald Trump haber disputado la autenticidad de la cinta de audio infame en la que se jacta de andar a tientas a las mujeres). Más ampliamente, a medida que el público se sensibiliza a La amenaza de las falsificaciones profundas puede ser menos propensa a confiar en las noticias en general.. Y los periodistas, por su parte, pueden mostrarse más cautelosos al depender, y mucho menos publicar, audios o videos de eventos innovadores por temor a que las pruebas resulten falsificadas.

ARREGLO PROFUNDO

No hay una bala de plata para contrarrestar las falsificaciones profundas. Existen varios enfoques legales y tecnológicos, algunos ya existentes, otros que probablemente surjan, que pueden ayudar a mitigar la amenaza. Pero ninguno resolverá el problema por completo. En lugar de soluciones completas, el auge de deepfakes exige resistencia.

Tres enfoques tecnológicos merecen especial atención. El primero se refiere a la tecnología forense, o la detección de falsificaciones a través de medios técnicos. Así como los investigadores están dedicando mucho tiempo y esfuerzo a crear falsificaciones creíbles, también están desarrollando métodos de detección mejorada. En junio de 2018, los científicos informáticos de Dartmouth y la Universidad de Albany, SUNY, anunciaronque habían creado un programa que detecta falsificaciones al buscar patrones anormales de movimiento de los párpados cuando parpadea el tema de un video. Sin embargo, en la carrera armamentista deepfakes, estos avances solo sirven para informar la próxima ola de innovación. En el futuro, los GANS recibirán videos de capacitación que incluyen ejemplos de parpadeo normal. E incluso si surgen algoritmos de detección extremadamente capaces, la velocidad con la que pueden circular los deepfakes en las redes sociales hará que desacreditarlos sea una batalla cuesta arriba. Para cuando suene la campana de alarma forense, el daño ya puede estar hecho.

Un segundo remedio tecnológico consiste en autenticar el contenido antes de que se extienda, un enfoque a veces denominado solución de “procedencia digital”. Empresas como Truepic están desarrollando formas de marcar digitalmente el contenido de audio, fotos y video en el momento de su creación, utilizando metadatos que pueden registrarse inmutablemente en un libro mayor distribuido o blockchain. En otras palabras, uno podría sellar efectivamente el contenido con un registro de autenticidad que podría usarse más adelante como referencia para compararlo con falsificaciones sospechosas.

En teoría, las soluciones de procedencia digital son una solución ideal. En la práctica, se enfrentan a dos grandes obstáculos. Primero, tendrían que implementarse de manera ubicua en la amplia gama de dispositivos que capturan contenido, incluidas computadoras portátiles y teléfonos inteligentes. En segundo lugar, su uso debería convertirse en una condición previa para cargar contenido en las plataformas digitales más populares, como Facebook, Twitter y YouTube. Es probable que ninguna de las dos condiciones se cumpla. Fabricantes de dispositivos, a falta de alguna obligación legal o regulatoria, no adoptarán la autenticación digital hasta que sepan que es asequible, está en demanda y es poco probable que interfiera con el rendimiento de sus productos. Y pocas plataformas de redes sociales querrán impedir que las personas carguen contenido no autenticado, especialmente cuando el primero en hacerlo correrá el riesgo de perder cuota de mercado frente a competidores menos rigurosos.

Un tercer enfoque tecnológico más especulativo involucra lo que se ha llamado “servicios de coartada autenticados”, que pronto podrían comenzar a emerger del sector privado. Tenga en cuenta que los deepfakes son especialmente peligrosos para las personas de alto perfil, como los políticos y las celebridades, con una reputación valiosa pero frágil. Para protegerse contra las falsificaciones profundas, algunas de estas personas pueden optar por participar en formas mejoradas de “registro de vidas”, la práctica de registrar casi todos los aspectos de la vida de uno, para probar dónde estaban y qué estaban diciendo o haciendo en cualquier momento. hora. 

Las empresas podrían comenzar a ofrecer paquetes de servicios de coartada, incluidos dispositivos portátiles para facilitar el registro de vidas, el almacenamiento para hacer frente a la gran cantidad de datos resultantes y la autenticación creíble de esos datos.

Tal registro sería profundamente invasivo, y muchas personas no querrían tener nada que ver con eso. Pero además de las personas de alto perfil que optan por adoptar registros de vida para protegerse, algunos empleadores pueden comenzar a insistir en ello para ciertas categorías de empleados, de manera similar a que los departamentos de policía exigen cada vez más que los oficiales usen cámaras corporales. E incluso si solo un número relativamente pequeño de personas tomara registros intensivos de vida, producirían grandes depósitos de datos en los que el resto de nosotros nos encontraríamos atrapados inadvertidamente, creando una red masiva de vigilancia entre pares para registrar constantemente nuestras actividades.

ESTABLECER LA LEY

Si estas soluciones tecnológicas tienen ventajas limitadas, ¿qué pasa con los recursos legales? Dependiendo de las circunstancias, hacer o compartir una falsificación profunda podría constituir difamación, fraude o apropiación indebida de la imagen de una persona, entre otras violaciones civiles y penales. En teoría, uno podría cerrar cualquier brecha restante criminalizando (o atribuyendo responsabilidad civil a) actos específicos, por ejemplo, creando una falsa simulación de una persona real con la intención de engañar a un espectador u oyente y con la expectativa de que este engaño cause algún tipo de tipo específico de daño. Pero podría ser difícil hacer que estos reclamos o cargos se mantengan en la práctica. Para empezar, probablemente resulte muy difícil atribuir la creación de una falsificación profunda a una persona o grupo en particular. E incluso si se identifica a los perpetradores, pueden estar fuera del alcance de un tribunal,

Otra solución legal podría ser incentivar a las plataformas de redes sociales para que hagan más para identificar y eliminar las falsificaciones profundas o el contenido fraudulento de manera más general. Según la ley actual de los EE. UU., Las compañías que poseen estas plataformas son en gran medida inmunes a la responsabilidad por el contenido que alojan, gracias a la Sección 230 de la Ley de Decencia de Comunicaciones de 1996. El Congreso podría modificar esta inmunidad, quizás modificando la Sección 230 para hacer que las compañías sean responsables de información dañina y fraudulenta distribuida a través de sus plataformas a menos que hayan hecho esfuerzos razonables para detectarla y eliminarla. Otros países han utilizado un enfoque similar. por un problema diferente: en 2017, por ejemplo, Alemania aprobó una ley que impone fuertes multas a las empresas de redes sociales que no eliminaron el contenido racista o amenazante dentro de las 24 horas posteriores a su denuncia.

Sin embargo, este enfoque traería desafíos propios. En particular, podría conducir a una censura excesiva. Es probable que las empresas ansiosas por evitar la responsabilidad legal cometan un error al controlar el contenido de manera demasiado agresiva, y los propios usuarios podrían comenzar a autocensurarse para evitar el riesgo de que su contenido sea suprimido. Está lejos de ser obvio que los beneficios nocionales de una mejor protección contra el fraude justifiquen estos costos para la libre expresión. Tal sistema también correría el riesgo de aislar las plataformas establecidas, que tienen los recursos para controlar el contenido y pagar las batallas legales, contra la competencia de empresas más pequeñas.

Pero aunque los deepfakes son peligrosos, no necesariamente serán desastrosos. La detección mejorará, los fiscales y los demandantes ocasionalmente obtendrán victorias legales contra los creadores de falsificaciones dañinas, y las principales plataformas de redes sociales mejorarán gradualmente para marcar y eliminar contenido fraudulento. Y las soluciones de procedencia digital podrían, si se adoptan ampliamente, proporcionar una solución más duradera en algún momento en el futuro.

Mientras tanto, las sociedades democráticas tendrán que aprender la resiliencia. Por un lado, esto significará aceptar que el contenido de audio y video no se puede tomar al pie de la letra; Por otro lado, significará luchar contra el descenso a un mundo posterior a la verdad, en el que los ciudadanos se retiren a sus burbujas de información privada y consideren como un hecho solo lo que halaga sus propias creencias. 

En resumen, las democracias tendrán que aceptar una verdad incómoda: para sobrevivir a la amenaza de las falsificaciones profundas, tendrán que aprender a vivir con mentiras.

Share this post:

Related Posts