El «Padrino de la IA» abandona Google para alertar sobre una tecnología que da «miedo»

Por Samantha Flom
01 de mayo de 2023 7:49 PM Actualizado: 01 de mayo de 2023 7:49 PM

Un innovador pionero en el campo de la inteligencia artificial (IA) está alertando sobre los peligros que impone la tecnología para la que su trabajo sentó las bases.

Geoffrey Hinton, el informático británico al que se ha llamado el «Padrino de la IA», abandonó recientemente su puesto de vicepresidente y becario de ingeniería en Google para unirse a las docenas de expertos en la materia que denuncian las amenazas y los riesgos de la IA.

«Es difícil ver cómo se puede evitar que los malos la utilicen para cosas malas», dijo Hinton, de 75 años, a The New York Times en una entrevista.

Tras el lanzamiento de la última versión de OpenAI de su chatbot GPT en marzo, otros profesionales de la IA firmaron una carta abierta, redactada por la organización sin ánimo de lucro Future of Life Institute, en la que advertían de que la tecnología plantea «profundos riesgos para la sociedad y la humanidad».

Hinton, al igual que los firmantes de la carta, afirma que los recientes avances en IA le parecen «aterradores» y le preocupa lo que puedan significar para el futuro, sobre todo ahora que Microsoft ha incorporado la tecnología a su motor de búsqueda Bing.

Una faceta concreta de la tecnología de IA que preocupa al informático es su capacidad para crear imágenes, fotos y textos falsos hasta el punto que  una persona común «ya no podrá saber qué es verdad».

También advirtió de que, en el futuro, la IA podría llegar a sustituir a los humanos en el lugar de trabajo y utilizarse para crear armas totalmente autónomas.

«La idea de que estas cosas podrían llegar a ser más inteligentes que las personas: unas pocas personas lo creían», dijo Hinton. «Pero la mayoría creía que no. Y yo también. Pensaba que faltaban de 30 a 50 años o incluso más. Obviamente, ya no pienso eso».

La salida de Hinton

Hinton es conocido principalmente por su papel en el desarrollo del aprendizaje profundo, una forma de aprendizaje automático que entrena a las computadoras para procesar datos como el cerebro humano.

Ese trabajo fue integral para el desarrollo de la IA, pero en retrospectiva, Hinton dijo que lamentaba su papel en el proceso.

«Me consuelo con la excusa habitual: si no lo hubiera hecho yo, lo habría hecho otro», afirma.

Hinton notificó a Google el mes pasado que dejaba la empresa después de más de una década.

El 1 de mayo, aclaró que el motivo de su marcha era únicamente aislar a la empresa de sus declaraciones y que no tenía nada que ver con el enfoque de Google sobre la IA.

«Me fui para poder hablar de los peligros de la IA sin tener en cuenta cómo afecta esto a Google», escribió en un tuit. «Google ha actuado de forma muy responsable».

En una declaración proporcionada a The New York Times, Jeff Dean, vicepresidente senior de investigación e IA de Google, dijo: «Seguimos comprometidos con un enfoque responsable de la IA. Estamos aprendiendo continuamente para comprender los riesgos emergentes al tiempo que innovamos con audacia».

«Dios digital»

A pesar de las garantías de Google, otros han criticado los métodos de la empresa.

En una entrevista reciente con Fox News, el director ejecutivo de Tesla, Elon Musk —que también cofundó OpenAI— dijo que le parecía que Larry Page, cofundador de Google, no se estaba tomando en serio los riesgos de la IA.

«Realmente parecía querer una superinteligencia digital, básicamente un Dios digital, lo antes posible», dijo Musk, refiriéndose a las conversaciones que ha mantenido con Page sobre el asunto.

«Ha hecho muchas declaraciones públicas a lo largo de los años diciendo que el objetivo de Google es lo que se llama AGI, inteligencia general artificial, o superinteligencia artificial», señaló. «Estoy de acuerdo con él en que hay un gran potencial para lo bueno, pero también para lo malo».

Musk, que firmó la carta de Future of Life Institute, ha manifestado abiertamente su preocupación por la IA en general, sosteniendo que supone un grave riesgo para la civilización humana.

«La IA es quizá más peligrosa que, por ejemplo, un diseño de avión mal gestionado, o el mantenimiento de la producción, o una mala producción de coches, en el sentido de que tiene el potencial —por pequeña que sea la probabilidad que se considere, pero no es trivial— de destruir la civilización», declaró a Fox News.

Otro temor que Musk reveló es la preocupación de que la IA esté siendo entrenada en la corrección política, que según él no es más que una forma de engaño y de «decir cosas falsas».

A pesar de esas preocupaciones —o quizás debido a ellas— el multimillonario de la tecnología también ha expresado su interés en desarrollar su propia IA «buscadora de la verdad» que estaría entrenada para preocuparse por la humanidad.

«Queremos ser prohumanos», dijo. «Hacer que el futuro sea bueno para los humanos. Porque somos humanos».

Con información de Caden Pearson.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.