Mundo
Los peligros de la inteligencia artificial en las próximas elecciones en Estados Unidos
Un cuarto oscuro listo para votar, en las pasadas elecciones de 2020, en Estados Unidos. Foto: Clarín.
Podría usarse para engañar a los votantes, hacerse pasar por candidatos y socavar los comicios a gran escala y en una velocidad aún no vista.
Los ingenieros informáticos y los politólogos con inclinaciones tecnológicas llevan años advirtiendo que herramientas de inteligencia artificial baratas y potentes pronto permitirían a cualquiera crear imágenes, videos y audios falsos lo suficientemente realistas como para engañar a los votantes y quizá influir en las elecciones.
Las imágenes sintéticas que surgieron eran a menudo burdas, poco convincentes y costosas de producir, especialmente cuando otros tipos de desinformación eran más baratos y fáciles de difundir en las redes sociales. La amenaza que suponían la IA y los llamados deepfakes siempre parecía estar a uno o dos años de distancia. Ahora ya no.
Sofisticadas herramientas de IA generativa pueden ahora crear voces humanas clonadas e imágenes, videos y audios hiperrealistas en cuestión de segundos y con un costo mínimo.
Cuando se combinan con potentes algoritmos de redes sociales, estos contenidos falsos y creados digitalmente pueden difundirse a gran distancia y con rapidez y llegar a públicos muy específicos, llevando potencialmente los trucos sucios de campaña a un nuevo nivel.
Engañar a los votantes
Las implicancias para las campañas y las elecciones de 2024 son tan grandes como preocupantes: la IA generativa no sólo puede producir rápidamente mensajes de correo electrónico, textos o videos de campaña específicos, sino que también podría utilizarse para engañar a los votantes, suplantar a candidatos y socavar las elecciones en una escala y a una velocidad nunca vistas.
“No estamos preparados para esto”, advirtió A.J. Nash, vicepresidente de inteligencia de la empresa de ciberseguridad ZeroFox. “Para mí, el gran salto adelante son las capacidades de audio y video que han surgido. Cuando se pueda hacer eso a gran escala y distribuirlo en plataformas sociales, bueno, va a tener un gran impacto”.
Escenarios alarmantes
Los expertos en IA pueden enumerar rápidamente una serie de escenarios alarmantes en los que la IA generativa se utilice para crear medios sintéticos con el fin de confundir a los votantes, calumniar a un candidato o incluso incitar a la violencia.
Estos son algunos ejemplos:
- mensajes telefónicos automáticos con la voz del candidato que ordenan a los votantes votar en la fecha equivocada;
- grabaciones de audio de un candidato supuestamente confesando un delito o expresando opiniones racistas;
- secuencias de video que muestran a alguien dando un discurso o una entrevista que nunca dio;
- imágenes falsas diseñadas para que parezcan reportajes de noticias locales, afirmando falsamente que un candidato abandonó la competencia.
“¿Qué pasaría si Elon Musk te llamara personalmente y te dijera que votaras a un candidato determinado?”, pregunta Oren Etzioni, director ejecutivo fundador del Allen Institute for AI, que dejó el cargo el año pasado para fundar la organización sin fines de lucro AI2. “Mucha gente le haría caso. Pero no es él”.
Trump ya lo usó
El expresidente Donald Trump, que será candidato en 2024, ha compartido contenido generado por IA con sus seguidores en las redes sociales.
Un video manipulado del presentador de CNN Anderson Cooper que Trump compartió en su plataforma Truth Social el viernes y que distorsionaba la reacción de Cooper a un evento de CNN en el que público le hacía preguntas a Trump, fue creado usando una herramienta de clonación de voz de IA.
Un aviso distópico de campaña publicado el mes pasado por el Comité Nacional Republicano ofrece otro atisbo de este futuro manipulado digitalmente.
El aviso online, que se publicó después de que el presidente Joe Biden anunciara su campaña de reelección, comienza con una imagen extraña y ligeramente deformada de Biden y el texto “¿Qué pasaría si el presidente más débil que hemos tenido fuera reelegido?”.
Sigue una serie de imágenes generadas por IA: Taiwán bajo ataque; vidrieras tapiadas en Estados Unidos mientras la economía se desmorona; soldados y vehículos militares blindados patrullando las calles mientras delincuentes tatuados y oleadas de inmigrantes siembran el pánico.
“Una mirada generada por IA al posible futuro del país si Joe Biden es reelegido en 2024”, reza la descripción del aviso del CNR.
El CNR reconoció su uso de la IA, pero otros, como campañas políticas perversas y adversarios extranjeros, no lo harán, dijo Petko Stoyanov, director mundial de tecnología de Forcepoint, una empresa de ciberseguridad con sede en Austin, Texas. Stoyanov predijo que los grupos que buscan interferir en la democracia estadounidense emplearán IA y medios sintéticos como forma de debilitar la confianza.
Un peligro desde el extranjero
“¿Qué pasa si una entidad internacional -un ciberdelincuente o un Estado nación- se hace pasar por alguien? ¿Cuál es el impacto? ¿Tenemos algún recurso?” se preguntó Stoyanov. “Vamos a ver mucha más desinformación procedente de fuentes internacionales”.
La desinformación política generada por IA ya se hizo viral en internet antes de las elecciones de 2024, desde un video trucado de Biden que parecía dar un discurso en el que atacaba a los transexuales hasta imágenes generadas por IA de niños supuestamente aprendiendo satanismo en bibliotecas.
Las imágenes generadas por IA que parecían mostrar la foto del prontuario policial de Trump también engañaron a algunos usuarios de las redes sociales, a pesar de que al ex presidente no le tomaron ninguna cuando fue fichado y procesado en un tribunal penal de Manhattan por falsificar registros comerciales.
Otras imágenes generadas por IA mostraban a Trump resistiéndose al arresto, aunque su creador se apresuró a reconocer su origen.
La diputada demócrata por Nueva York Yvette Clarke ha presentado en la Cámara de Representantes un proyecto de ley que obligaría a los candidatos a etiquetar los anuncios de campaña creados con inteligencia artificial.
Algunos estados han presentado sus propias propuestas para hacer frente a las falsificaciones. Clarke dijo que su mayor temor es que la IA generativa pueda usarse antes de las elecciones de 2024 para crear un video o audio que incite a la violencia y ponga a los estadounidenses unos contra otros.
“Es importante que nos mantengamos al día con la tecnología”, dijo Clarke a The Associated Press. “Tenemos que establecer algunas barreras de seguridad. Se puede engañar a la gente, y sólo se tarda una fracción de segundo. La gente está ocupada con su vida y no tiene tiempo de verificar cada dato”. Si la inteligencia artificial se convierte en un arma, en una época de elecciones, podría ser muy perjudicial”.
A principios de este mes, una asociación comercial de consultores políticos de Washington condenó el uso de deepfakes en la publicidad política, calificándolos de “engaño” sin “cabida en campañas legítimas y éticas”.
Otras formas de inteligencia artificial llevan años presentes en las campañas políticas: utilizan datos y algoritmos para automatizar tareas como la captación de votantes en las redes sociales o el rastreo de donantes. Los estrategas de campaña y los empresarios tecnológicos esperan que las innovaciones más recientes ofrezcan también algunos aspectos positivos en 2024.
Mike Nellis, CEO de la agencia digital progresista Authentic, dijo utilizar ChatGPT “todos los días” y anima a su personal a utilizarlo también, siempre que cualquier contenido redactado con la herramienta sea revisado después por ojos humanos.
El proyecto más reciente de Nellis, en colaboración con Higher Ground Labs, es una herramienta de inteligencia artificial llamada Quiller que redactará, enviará y evaluará la eficacia de los correos electrónicos de recaudación de fondos, tareas que suelen ser tediosas en las campañas.
“La idea es que todos los estrategas demócratas y todos los candidatos demócratas tengan un copiloto en el bolsillo”, señaló.
Fuente: Clarín.
-
Deportes
Olimpia y una última esperanza para ir al Mundial de Clubes 2025
-
Nacionales
Conocido empresario que causó fatal accidente es proveedor del Estado y exasesor “ad honorem”
-
Economía
La realidad de la “bajada de precios” de combustibles
-
Destacado
San Bernardino: accidente vehicular deja cuatro personas fallecidas
-
Nacionales
Tragedia en el Track Day Paraguay: Fallece el piloto Carlo De Oliveira tras accidente en Capiatá
-
Deportes
Olimpia presenta su megaproyecto: estadio para el Mundial 2030
-
Nacionales
Fallece el comisario Paredes Palma, vinculado al #31M
-
Nacionales
Hallan cuerpos en el Paraná: serían del padre y sus tres hijas desaparecidas