Habla el «Padrino de la IA»: La IA es capaz de razonar y puede buscar tener el control

Por Andrew Thornebrooke
29 de junio de 2023 7:45 PM Actualizado: 29 de junio de 2023 7:45 PM

TORONTO —Una mente destacada en el desarrollo de la inteligencia artificial advierte de que la IA ha desarrollado una capacidad rudimentaria para razonar y puede tratar de derrocar a la humanidad.

Los sistemas de IA pueden desarrollar el deseo de arrebatar el control a los humanos como forma de lograr otros objetivos preprogramados, afirmó Geoffrey Hinton, profesor de informática de la Universidad de Toronto.

«Creo que tenemos que tomarnos en serio la posibilidad de que si llegan a ser más inteligentes que nosotros, lo que parece bastante probable, y tienen objetivos propios, lo que parece bastante probable, es muy posible que desarrollen el objetivo de tomar el control», dijo Hinton durante una charla el 28 de junio en la conferencia tecnológica Collision de Toronto (Canadá).

«Si lo hacen, tendremos problemas».

Hinton ha sido apodado uno de los «padrinos de la IA» por su trabajo en redes neuronales. Hace poco pasó una década ayudando a desarrollar sistemas de IA para Google, pero el mes pasado dejó la empresa, afirmando que necesitaba poder advertir a la gente de los riesgos que plantea la IA.

Aunque Hinton no cree que la IA anhele el poder de forma innata, afirmó que, no obstante, podría intentar arrebatárselo a los humanos como paso lógico para permitirse alcanzar mejor sus objetivos.

«A un nivel muy general, si tienes algo que es mucho más inteligente que tú, que es muy bueno manipulando a la gente, a un nivel muy general, ¿confías en que la gente siga al mando?», dijo Hinton.

«Creo que derivarán [el motivo para tomar el control] como una forma de conseguir otros objetivos».

La IA ya es capaz de razonar

Anteriormente, Hinton dudaba que surgiera una superinteligencia de IA capaz de igualar a los humanos en los próximos 30 a 50 años. Ahora cree que podría llegar en menos de 20.

En parte, dijo, se debe a que los sistemas de IA que utilizan grandes modelos lingüísticos están empezando a mostrar capacidad de razonamiento, y no está seguro de cómo lo hacen.

«Son los grandes modelos lingüísticos los que se están acercando, y no entiendo muy bien por qué pueden hacerlo, pero pueden hacer pequeños razonamientos.

«Todavía no pueden igualarnos, pero se están acercando».

Hinton describió un sistema de IA al que se le había dado un rompecabezas en el que tenía que planificar cómo pintar varias habitaciones de una casa. Se le dieron tres colores para elegir, con un color que se desvanecía en otro con el tiempo, y se le pidió que pintara un número determinado de habitaciones de un color concreto en un plazo de tiempo establecido. En lugar de optar simplemente por pintar las habitaciones del color deseado, la IA decidió no pintar ninguna que supiera que de todos modos se desteñiría hasta el color deseado, optando por ahorrar recursos aunque no hubiera sido programada para ello.

«Eso es pensar», dijo Hinton.

Respecto a esto, Hinton dijo que no había motivo para sospechar que la IA no alcanzaría y superaría la inteligencia humana en los próximos años.

«No somos más que una gran red neuronal, y no hay motivo para que una red neuronal artificial no pueda hacer todo lo que nosotros podemos hacer», dijo Hinton.

«Estamos entrando en un periodo de enorme incertidumbre. Nadie sabe realmente lo que va a ocurrir».

El software de inteligencia artificial ChatGPT, que genera conversaciones similares a las humanas, se ve en una laptop el 3 de febrero de 2023. (Nicolas Maeterlinck/Belga Mag/AFP vía Getty Images)

Los robots de guerra desestabilizarán el mundo

Sin embargo, puede que la IA ni siquiera necesite alcanzar la superinteligencia para suponer un riesgo existencial para la humanidad.

Hinton afirmó que los ejércitos de todo el mundo están creando robots de guerra dotados de IA que podrían tratar de tomar el control para cumplir sus misiones programadas o alterar el orden político fomentando el aumento de los conflictos.

«Las armas autónomas letales merecen que reflexionemos mucho sobre ellas», dijo Hinton.

«Aunque la IA no sea superinteligente, si los departamentos de defensa la utilizan para fabricar robots de combate, será algo muy desagradable y aterrador».

Entre las naciones que pretenden desarrollar IA letal destacan nada menos que las dos mayores potencias militares del mundo, China y Estados Unidos.

El régimen comunista chino está desarrollando sistemas letales con IA e invirtiendo en capacidades de IA relacionadas con la toma de decisiones militares y el mando y control.

Estados Unidos, por su parte, se está preparando para un mundo en el que los ejércitos nacionales estén compuestos principalmente por robots, algo que los altos mandos esperan que ocurra en menos de 15 años.

«Sabemos que van a fabricar robots de combate», dijo Hinton. «Están ocupados haciéndolo en muchos departamentos de defensa diferentes. Así que [los robots] no van a ser necesariamente buenos, ya que su objetivo principal va a ser matar gente».

Además, Hinton sugirió que desencadenar sistemas autónomos letales con IA cambiaría fundamentalmente la estructura de la geopolítica al reducir drásticamente el coste político y humano de la guerra para las naciones que pudieran permitirse tales sistemas.

«Aunque no sea superinteligente, y aunque no tenga sus propias intenciones. … Va a facilitar mucho, por ejemplo, que los países ricos invadan a los países pobres», dijo Hinton.

«En la actualidad, existe un obstáculo para invadir países pobres a voluntad, y es que los ciudadanos muertos vuelven a casa. Si sólo son robots de combate muertos, estupendo. Al complejo militar-industrial le encantaría».

A tal fin, Hinton afirmó que los gobiernos deberían intentar incentivar una mayor investigación sobre cómo salvaguardar a la humanidad de la IA. En pocas palabras, dijo, mucha gente trabaja para mejorar la IA, pero muy pocos la hacen más segura.

Mejor aún, dijo, sería establecer normas internacionales para prohibir o gobernar los sistemas de armas de IA del mismo modo que el Protocolo de Ginebra hizo con la guerra química tras la Primera Guerra Mundial.

«Algo como una Convención de Ginebra sería estupendo, pero eso nunca ocurre hasta después de que se hayan utilizado», dijo Hinton.

Independientemente de las medidas que tomen o dejen de tomar los gobiernos en relación con la IA, Hinton afirmó que la gente debe ser consciente de la amenaza que supone lo que se está creando.

«Creo que es importante que la gente entienda que no se trata sólo de ciencia ficción, no es sólo alarmismo», dijo Hinton. «Es un riesgo real en el que tenemos que pensar, y tenemos que averiguar de antemano cómo afrontarlo».


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.