Connect with us

Lifestyle

Inteligencia artificial en política: ¿existen algoritmos de izquierda y de derecha?

Inteligencia Artificial. Foto: Infobae.

Inteligencia Artificial. Foto: Infobae.

Mariano Sigman y Santiago Bilinkis hacen un recorrido por la historia de las IA, desde su surgimiento durante la Segunda Guerra Mundial hasta las posibles implicancias de su desarrollo exponencial y su uso a futuro.

Después del éxito de El poder de las palabras, un libro sobre la importancia de la conversación, al físico y neurocientífico argentino Mariano Sigman le propusieron agregarle un capítulo extra que ahondara en cómo conversar con una inteligencia artificial. El entusiasmo con el tema del momento, ese que entre debates y polémicas está en boca de todos, generó que, más que un simple anexo, el autor propusiera escribir un libro entero.

Así escribió, junto al emprendedor y tecnólogo argentino Santiago Bilinkis, su nueva investigación: Artificial. La nueva inteligencia y el contorno de lo humano. En este libro, los autores hacen un recorrido desde los inicios de las IA durante la Segunda Guerra Mundial hasta los planteos que, frente al auge que esta tecnología está viviendo hoy en día, surgen de cara al futuro.

“El concepto mismo de IA proviene de la idea de artificio, que tiene dos acepciones muy distintas (…) Por un lado artificial se refiere a algo que no es natural. Desde esa perspectiva, percibimos a la IA como algo extraño y amenazante. La otra acepción de artificial es que ha sido hecho por el ser humano, y este es el sentido que solemos olvidar. Esta IA es esencialmente humana. Podría ser autónoma, replicarse a sí misma, confrontarnos, tener su propio sentido onto­lógico y ser consciente, pero eso no la hace menos obra nuestra. Nace como consecuencia de la curiosidad humana”, escriben los autores.

Además, como en el fragmento compartido al final de esta nota, Sigman y Bilinkis ahondan en las implicancias de la inteligencia artificial y sus usos. ¿Pueden usarse las IA en política? ¿Existen los algoritmos de izquierda y de derecha? ¿Representan una amenaza para los sistemas democráticos? ¿Podrían, por el contrario, mejorar la toma de decisiones y mejorar las instituciones de un gobierno? Todo esto y mucho más en Artificial, editado por Debate.

Entre la utopía y la distopía: algoritmos de izquierda y de derecha

Así como las estadísticas de accidentes muestran que los seres humanos no somos buenos conduciendo automóviles, la frustración que muchas personas sienten frente a la gestión pública y la representación política parece un indicador de que tampoco somos excelentes gobernando. Considerando esta persistente ineficiencia, ahora que hemos visto que las inteligencias artificiales pueden intervenir tanto en el oikos como en la polis podemos plantearnos, en un ejercicio de curiosidad, las siguientes preguntas: ¿podrían mejorar las instituciones de un gobierno representativo si delegáramos algunos elementos de la gestión a una IA? ¿Tomarían mejores decisiones en política pública? La respuesta espontánea de la mayoría de la gente es que no.

Inteligencia artificial. Ilustración, Ciencia del Sur

Inteligencia artificial. Ilustración, Ciencia del Sur

Pero antes cerrar la cuestión rotundamente sigamos indagando. Cuando elegimos a un diputado o un senador, lo hacemos pensando que tomará decisiones similares a las que nosotros tomaríamos. Es la esencia de la democracia representativa. Supongamos que se miden exhaustivamente las decisiones que toma nuestro senador electo y se comparan con las que toma un programa que ha estudiado nuestras preferencias. Y supongamos también que ese programa representa nuestra visión política de manera más precisa que el senador humano. Es decir, que en cientos de problemas diversos, la decisión que toma coincide con la que nosotros querríamos, mientras que esa coincidencia es muchísimo menor con la persona que votamos, ¿Estaríamos de acuerdo en delegar nuestro voto en ese programa que nos representa mejor, o hay temas que no pueden dejarse en manos de las máquinas?

El problema evidente de dar entrada a una IA en la función pública y el ejercicio del gobierno es, una vez más, la enorme dificultad de definir la función de valor que guíe sus decisiones. Podrán ser excelentes en llegar a la meta que les fijemos, pero ¿cuál será esa meta? La barrera esencial es lo variada y ecléctica que puede ser la definición de bien común. Desde una visión de derecha, probablemente la prioridad sea garantizar la propiedad privada y para una visión más de izquierda, generar una sociedad con menos desigualdad.

Del mismo modo que con el ejemplo de los automóviles egoístas y altruistas, habrá algoritmos de derecha, de centro y de izquierda, y múltiples variantes dentro de cada espacio ideológico. Probablemente, las máquinas empiecen a jugar un rol creciente en la toma de decisiones de política pública, pero no podremos librarnos de decidir qué idea del bien común respaldamos y qué meta preferimos priorizar.

Antes de enfrentarnos a esa encrucijada nos encontraremos con un problema más inmediato- Con el escándalo de Cambridge Analytica en 2018, descubrimos que es posible manipular el voto para influir en el resultado de elecciones. Ya en ese momento, la proliferación de noticias falsas diseñadas para viralizarse en las redes era un problema que no logramos solucionar. Y podemos imaginar que el problema aumentará enormemente en los años venideros ahora que, además, se podrán crear videos falsos en los que una persona, con su cara y con su voz, diga de manera sumamente realista cosas que jamás ha dicho.

En el mundo de las IA generativas, las noticias falsas pueden ser mucho más sutiles y peligrosas. Una campaña política podrá también, usando deepfakes y clonación de voz, dirigir mensajes personalizados, diseñados a medida según las preferencias y vulnerabilidades de cada elector. El político ya no necesitará dar un mensaje para el votante promedio, sino que podrá decirle a cada uno lo que quiere escuchar. El que tenga acceso a nuestros datos tendrá también la llave para manipular, con bastante facilidad, nuestro voto.

El historiador y filósofo israelí Yuval Noah Harari sostuvo recientemente que la IA representa un peligro para el sistema democrático tal y como lo conocemos: “Esto es especialmente una amenaza para las democracias más que para los regímenes autoritarios porque las democracias dependen de la conversación pública. La democracia básicamente es conversación. Gente hablando entre sí. Si la IA se hace cargo de la conversación, la democracia ha terminado”.

La conversación es la fábrica de ideas, es el lugar en el que construimos opiniones y creencias, en el que definimos lo que hacemos y lo que no, lo que nos parece bien o mal y en quién depositamos nuestra confianza. La genuina libertad de establecer cada uno de estos elementos sin manipulaciones ni interferencias está en el corazón de casi todas las nociones de república o de democracia representativa. Es, como vimos, la esencia de la polis. Y la IA conversacional, al servicio de intereses particulares o propios, tiene el potencial de inmiscuirse en este espacio de conversación pública, y así ponerla en jaque.

Si intuimos que estas tecnologías podrían erosionar las bases mismas del sistema democrático, resulta inevitable preguntarnos: ¿es aceptable el uso de IA para manipular ideologías o para dirigir el debate público? Y si no lo fuese, ¿será posible imponer regulaciones que limiten los malos usos?

Aquí aparece otro gran desafío. Incluso si entendemos que es necesario introducir regulaciones para proteger las instituciones democráticas, no está claro quién tiene la atribución para hacerlo. Por un lado, porque en cada país son justamente los actores del sistema político los potenciales beneficiarios de esos mecanismos manipulativos. Por otro, porque la interferencia puede impulsarse y ejecutarse de acuerdo con los intereses de grupos o naciones extranjeros. La clave es que la IA no reconoce las fronteras tradicionales. Ni las de los gobiernos, ni las de los países.

Humanos contra humanos

Al comienzo del libro vimos que la Segunda Guerra Mundial precipitó el desarrollo de la IA y de la tecnología nuclear. Pero después del conflicto, ambas tecnologías siguieron trayectorias muy diferentes. Mientras que la IA quedó relegada a una curiosidad académica, el poderío del arsenal atómico se convirtió en la clave para el balance geopolítico del mundo de las siguientes ocho décadas.

Es probable que el objetivo principal de lanzar las bombas sobre Hiroshima y Nagasaki no fuera solamente la destrucción de esas dos ciudades, y la muerte de unas doscientas cincuenta mil personas, sino mostrar al mundo que Estados Unidos disponía de un arma nueva que terminaba de inclinar por completo el balance de fuerzas en aquel conflicto. Pero como ya hemos visto en el primer capítulo, un grupo de científicos involucrados en el programa de desarrollo nuclear de Estados Unidos decidieron, de forma deliberada, compartir esta información con la Unión Soviética. Su objetivo era acelerar el programa análogo soviético para que esta no quedase a merced de su circunstancial aliado, que era en realidad su nuevo y mayor rival geopolítico.

Cuatro años después, en 1949, la URSS detonó, en una prueba en Kazajistán, su primera arma nuclear, dando comienzo a la Guerra fría. Durante esta etapa, que duró cuarenta años, se mantuvo entre las dos potencias un equilibrio tan tenso como precario. Con la caída del bloque soviético y la proliferación nuclear, se inició un nuevo período en el que el mundo pasó de una puja entre dos poderes a una clara hegemonía estadounidense.

De acuerdo con un índice multifactorial construido por la consultora McKinsey, Estados Unidos en esa etapa era al menos cinco veces más poderoso que sus circunstanciales rivales, Rusia y China. Sin embargo, en la última década, el escenario ha cambiado una vez más. El ascenso de China como nueva potencia ha puesto en cuestión la hegemonía estadounidense, llevando al mundo hacia una nueva configuración bipolar. De hecho, la brecha entre la primera y la segunda potencia se viene achicando y hoy es menor que en el mejor momento de la Unión Soviética. Nunca ha habido un país tan cerca de disputar el liderazgo de Estados Unidos como ahora.

Lo que las bombas atómicas hicieron en el siglo XX, segura mente lo haga la IA en el XXI. Las indudables aplicaciones militares de esta tecnología pueden, una vez más, resultar la clave para el balance geopolítico de las próximas décadas. Con una diferencia importante: esta vez buena parte del desarrollo tecnológico está en manos de corporaciones que, si bien son seguidas muy de cerca por los gobiernos, tienen sus propias agendas.

En este nuevo mapa mundial, no es sencillo estimar quién llegará primero. Pero si nos basamos en la cantidad de patentes relacionadas con la IA que presenta cada país, el dominio de China en los últimos años es abrumador. Entretanto, el gobierno de Estados Unidos presiona a Nvidia, la empresa más importante entre las que fabrican GPU, para que no venda a China los modelos más avanzados. Quizá el destino de esta pugna lo defina una pequeña isla, cinco veces menor en superficie que Uruguay: Taiwán juega un rol clave en el suministro de los equipos que sirven de base para la IA.

Es muy probable que, a partir de lo que pasó en la última posguerra, uno o ambos bandos hayan llegado a una sombría y peligrosa conclusión: la próxima vez que una potencia disponga de un arma que le dé una ventaja momentánea considerable respecto de sus rivales, habrá que intentar desarticular de inmediato los planes de la segunda para llegar al mismo punto. Por eso, antes de preocuparse por el escenario cinematográfico de una batalla de humanos contra máquinas, quizá nos encontremos con otro peligro más cercano: el uso de una IA como un arma sin precedentes en la eterna disputa de humanos contra humanos.

Fuente: Infobae.

Click para comentar

Dejá tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Los más leídos

error: Content is protected !!