El magnate de la tecnología, Elon Musk, está haciendo sonar la alarma sobre los riesgos de la inteligencia artificial (IA), específicamente por su potencial para la «destrucción de la civilización».
En un adelanto de su entrevista del 14 de abril con Tucker Carlson, de Fox News, Musk hizo hincapié de que las ramificaciones de esta tecnología podrían ser desastrosas para la humanidad.
«La IA es más peligrosa que, digamos, un mal diseño de aviones o un mal mantenimiento de la producción o una mala producción de coches, en el sentido de que tiene el potencial —por pequeña que se considere esa probabilidad, pero no es trivial— de destrucción de la civilización».
El CEO de Tesla, Space X y Twitter debería saberlo, dado que también cofundó en 2015 OpenAI —el laboratorio sin ánimo de lucro que creó ChatGPT.
«Profundos riesgos»
ChatGPT, un chatbot interactivo, se lanzó como prototipo en noviembre a bombo y platillo y desde entonces ha captado la atención de más de 100 millones de usuarios. Pero no todas las reacciones han sido positivas.
El creciente malestar por la IA y sus implicaciones ha hecho reflexionar a muchos, como Musk.
El mes pasado, el multimillonario —quien ya no está asociado a OpenAI— se unió a docenas de expertos y ejecutivos del sector, en una carta del 22 de marzo que desde entonces ha reunido más de 25,000 firmas, para pedir a todos los laboratorios de IA que hagan una pausa en el entrenamiento de sistemas más potentes que el GPT-4 de OpenAI durante al menos seis meses.
Sosteniendo que la IA puede plantear «profundos riesgos para la sociedad y la humanidad», los expertos en IA afirmaron que «los sistemas de IA potentes solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema».
Haciendo referencia al IA en particular, los firmantes también señalaron que la propia organización había reconocido recientemente que, «en algún momento», podría ser necesario imponer limitaciones al ritmo de crecimiento de estos sistemas.
«Nosotros estamos de acuerdo», escribieron ellos. «Ese momento es ahora».
Sin embargo, mientras participaba en un debate en el Instituto Tecnológico de Massachusetts el 13 de abril, el CEO de OpenAI, Sam Altman, dijo que sentía que la carta carecía de «la mayoría de los matices técnicos» con respecto a dónde y cómo se deben pausar los esfuerzos.
Aunque también señaló que estaba de acuerdo en que la seguridad debería ser una preocupación, aclaró que el laboratorio no está entrenando actualmente a GPT-5.
«No lo estamos haciendo y no lo haremos durante algún tiempo», dijo Altman. «Así que, en ese sentido, fue una especie de tontería».
La entrevista de Musk con «Tucker Carlson Tonight» se emitirá en dos partes los días 17 y 18 de abril a las 8 p.m. ET. Otros temas que tratará Musk son su adquisición de Twitter y sus planes de futuro para la red social.
Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.