Connect with us

Mundo

El “Padrino de la IA” deja Google y advierte del peligro que se avecina

Geoffrey Hinton deja Google para poder compartir libremente su preocupación de que la inteligencia artificial pueda causar graves daños al mundo. Foto: Clarín

Geoffrey Hinton deja Google para poder compartir libremente su preocupación de que la inteligencia artificial pueda causar graves daños al mundo. Foto: Clarín

Durante medio siglo, Geoffrey Hinton ha cultivado la tecnología en la que se basan chatbots como ChatGPT. Ahora le preocupa que pueda causar graves daños. En 2012, Hinton y dos de sus estudiantes de posgrado de la Universidad de Toronto crearon una tecnología que se convirtió en la base intelectual de los sistemas de IA que las grandes empresas del sector tecnológico consideran clave para su futuro.

El lunes, sin embargo, se unió oficialmente a un creciente coro de críticos que afirman que esas empresas están corriendo hacia el peligro con su agresiva campaña para crear productos basados en IA generativa, la tecnología que impulsa chatbots populares como ChatGPT.

Hinton dijo que ha dejado su trabajo en Google, donde ha trabajado durante más de una década y se convirtió en una de las voces más respetadas en este campo, para poder hablar libremente sobre los riesgos de la IA.

Una parte de él, dijo, se arrepiente ahora del trabajo de su vida.

“Me consuelo con la excusa habitual: si yo no lo hubiera hecho, otro lo habría hecho”, dijo Hinton durante una larga entrevista la semana pasada en el comedor de su casa de Toronto, a poca distancia del lugar donde él y sus estudiantes hicieron su gran avance.

El paso de Hinton de pionero de la IA a agorero marca un momento extraordinario para la industria tecnológica, quizá en su punto de inflexión más importante en décadas.

Los líderes del sector creen que los nuevos sistemas de IA podrían ser tan importantes como la introducción del navegador web a principios de los 90 y podrían suponer avances en ámbitos que van desde la investigación farmacológica a la educación.

Sin embargo, muchas personas del sector temen estar liberando algo peligroso en la naturaleza. La IA generativa ya puede ser una herramienta para la desinformación. Pronto podría ser un riesgo para el empleo.

En algún momento, dicen los más preocupados por la tecnología, podría ser un riesgo para la humanidad. “Es difícil impedir que los malos la utilicen para cosas malas”, afirma Hinton.

Después de que la startup OpenAI de San Francisco lanzara una nueva versión de ChatGPT en marzo, más de 1.000 líderes tecnológicos e investigadores firmaron una carta abierta en la que pedían una moratoria de seis meses en el desarrollo de nuevos sistemas porque las tecnologías de IA plantean “profundos riesgos para la sociedad y la humanidad”.

Varios días después, 19 líderes actuales y antiguos de la Asociación para el Avance de la Inteligencia Artificial, una sociedad académica con 40 años de antigüedad, publicaron su propia carta advirtiendo de los riesgos de la IA.

En ese grupo figuraba Eric Horvitz, director científico de Microsoft, que ha desplegado la tecnología de OpenAI en una amplia gama de productos, incluido su motor de búsqueda Bing.

Hinton, a menudo llamado “el Padrino de la IA”, no firmó ninguna de esas cartas y dijo que no quería criticar públicamente a Google o a otras empresas hasta que hubiera dejado su trabajo.

El mes pasado notificó a la empresa que dimitía y el jueves habló por teléfono con Sundar Pichai, consejero delegado de la empresa matriz de Google, Alphabet. Se negó a comentar públicamente los detalles de su conversación con Pichai.

El jefe científico de Google, Jeff Dean, dijo en un comunicado:

“Seguimos comprometidos con un enfoque responsable de la IA. Estamos aprendiendo continuamente para comprender los riesgos emergentes al tiempo que innovamos con audacia.”

Hinton, británico expatriado de 75 años, es un académico de toda la vida cuya carrera se vio impulsada por sus convicciones personales sobre el desarrollo y el uso de la IA.

En 1972, como estudiante de posgrado en la Universidad de Edimburgo, Hinton adoptó una idea llamada red neuronal.

Una red neuronal es un sistema matemático que aprende habilidades analizando datos.

En aquella época, pocos investigadores creían en la idea. Pero se convirtió en el trabajo de su vida.

En la década de 1980, Hinton era profesor de informática en la Universidad Carnegie Mellon, pero abandonó la universidad para irse a Canadá porque dijo que era reacio a aceptar financiación del Pentágono.

En aquella época, la mayor parte de la investigación sobre IA en Estados Unidos estaba financiada por el Departamento de Defensa. Hinton se opone profundamente al uso de la IA en el campo de batalla, lo que él llama “soldados robot”.

En 2012, Hinton y dos de sus estudiantes en Toronto, Ilya Sutskever y Alex Krishevsky, construyeron una red neuronal que podía analizar miles de fotos y enseñarse a sí misma a identificar objetos comunes, como flores, perros y coches.

Google gastó 44 millones de dólares en adquirir la empresa creada por Hinton y sus dos estudiantes.

Y su sistema condujo a la creación de tecnologías cada vez más potentes, incluidos nuevos chatbots como ChatGPT y Google Bard.

Sutskever pasó a convertirse en científico jefe de OpenAI.

En 2018, Hinton y otros dos colaboradores de larga data recibieron el Premio Turing, a menudo llamado “el Premio Nobel de la informática”, por su trabajo en redes neuronales.

Más o menos al mismo tiempo, Google, OpenAI y otras empresas comenzaron a construir redes neuronales que aprendían de enormes cantidades de texto digital.

Hinton pensaba que era una forma muy potente de que las máquinas entendieran y generaran lenguaje, pero que era inferior a la forma en que lo hacían los humanos.

El año pasado, cuando Google y OpenAI crearon sistemas que utilizaban cantidades mucho mayores de datos, su opinión cambió.

Seguía creyendo que los sistemas eran inferiores al brai

Hasta el año pasado, dijo, Google actuó como un “administrador adecuado” de la tecnología, con cuidado de no liberar algo que pudiera causar daño.

Pero ahora que Microsoft ha ampliado su motor de búsqueda Bing con un chatbot, desafiando el negocio principal de Google, Google se apresura a desplegar el mismo tipo de tecnología.

Según Hinton, los gigantes tecnológicos están inmersos en una competición que podría ser imposible de detener.

Su preocupación inmediata es que Internet se inunde de fotos, vídeos y textos falsos, y el ciudadano medio “ya no sea capaz de saber qué es verdad”.

También le preocupa que las tecnologías de IA acaben trastornando el mercado laboral.

En la actualidad, chatbots como ChatGPT tienden a complementar a los trabajadores humanos, pero podrían sustituir a asistentes jurídicos, asistentes personales, traductores y otras personas que se ocupan de tareas rutinarias.

“Elimina el trabajo pesado”, afirma. “Podría quitar más que eso”.

Más adelante, le preocupa que las futuras versiones de la tecnología supongan una amenaza para la humanidad, porque suelen aprender comportamientos inesperados a partir de las enormes cantidades de datos que analizan.

Esto se convierte en un problema, afirma, a medida que los particulares y las empresas permiten a los sistemas de IA no sólo generar su propio código informático, sino también ejecutarlo por sí mismos. Y teme que llegue el día en que las armas verdaderamente autónomas -esos robots asesinos- se hagan realidad.

“La idea de que estas cosas puedan llegar a ser más inteligentes que las personas es algo que algunos creían”, afirma.

“Pero la mayoría de la gente pensaba que estaba muy lejos de la realidad. Y yo también. Pensaba que faltaban de 30 a 50 años o incluso más.

Obviamente, ya no pienso eso”.

Muchos otros expertos, incluidos muchos de sus estudiantes y colegas, afirman que esta amenaza es hipotética.

Pero Hinton cree que la carrera entre Google y Microsoft y otros se intensificará hasta convertirse en una carrera mundial que no se detendrá sin algún tipo de regulación global.

Pero eso puede ser imposible, dijo.

A diferencia de lo que ocurre con las armas nucleares, dijo, no hay forma de saber si las empresas o los países están trabajando en la tecnología en secreto.

La mejor esperanza es que los principales científicos del mundo colaboren en la búsqueda de formas de controlar la tecnología.

“No creo que deban ampliarla hasta que no sepan si pueden controlarla”, afirmó.

Hinton dijo que cuando la gente solía preguntarle cómo podía trabajar en una tecnología que era potencialmente peligrosa, parafraseaba a Robert Oppenheimer, que dirigió los esfuerzos de Estados Unidos para construir la bomba atómica:

“Cuando ves algo que es técnicamente dulce, sigues adelante y lo haces”.

Ya no dice lo mismo.

Fuente: Clarín.

Click para comentar

Dejá tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Los más leídos

error: Content is protected !!