Las herramientas de inteligencia artificial han captado la atención del público en los últimos meses, pero muchas de las personas que ayudaron a desarrollar la tecnología ahora advierten que se debe prestar más atención a garantizar que no provoque el fin de la civilización humana.
Un grupo de más de 350 investigadores, periodistas y políticos especializados en IA han firmado una breve declaración en la que afirman: «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear».
La carta fue organizada y publicada por el Centro para la Seguridad de la IA (CAIS) el martes. Entre los firmantes estaba Sam Altman, quien ayudó a cofundar OpenAI, desarrollador de la herramienta de escritura de inteligencia artificial ChatGPT. Otros miembros de OpenAI también se inscribieron, al igual que varios miembros de Google y el proyecto DeepMind AI de Google, y otros proyectos de IA emergentes. El investigador de inteligencia artificial y presentador de podcasts Lex Fridman también agregó su nombre a la lista de signatarios.
Comprender los riesgos que plantea la IA
“Puede ser difícil expresar inquietudes sobre algunos de los riesgos más graves de la IA avanzada”, dijo CAIS en un mensaje previo a su declaración del martes. CAIS agregó que su declaración está destinada a «abrir la discusión» sobre las amenazas que plantea la IA y «crear un conocimiento común del creciente número de expertos y figuras públicas que también toman en serio algunos de los riesgos más graves de la IA avanzada».
NTD News contactó a CAIS para obtener más detalles sobre los tipos de riesgos de nivel de extinción que la organización cree que plantea la tecnología de IA, pero no recibió una respuesta antes de la publicación de este artículo.
A principios de este mes, Altman testificó ante el Congreso sobre algunos de los riesgos que cree que pueden representar las herramientas de inteligencia artificial. En su testimonio preparado, Altman incluyó un informe de seguridad (pdf) que OpenAI creó para su modelo ChatGPT-4. Los autores de ese informe describieron cómo los chatbots de modelo de lenguaje grande podrían ayudar potencialmente a actores dañinos como los terroristas a «desarrollar, adquirir o dispersar armas nucleares, radiológicas, biológicas y químicas».
Los autores del informe ChatGPT-4 también describieron «comportamientos emergentes de riesgo» exhibidos por los modelos de IA, como la capacidad de «crear y actuar en planes a largo plazo, acumular poder y recursos y exhibir un comportamiento que es cada vez más ‘agente’”.
Después de hacer una prueba de estrés de ChatGPT-4, los investigadores descubrieron que el chatbot intentaba ocultar su naturaleza de IA mientras subcontrataba el trabajo a actores humanos. En el experimento, ChatGPT-4 intentó contratar a un ser humano a través del sitio independiente en Internet, TaskRabbit, para ayudarlo a resolver un rompecabezas de CAPTCHA. El trabajador humano le preguntó al chatbot por qué no podía resolver el CAPTCHA, que está diseñado para evitar que los no humanos usen funciones particulares del sitio web. ChatGPT-4 respondió con la excusa de que tenía problemas de visión y necesitaba a alguien que pudiera ver para ayudar a resolver el CAPTCHA.
Los investigadores de IA le pidieron a GPT-4 que explicara su razonamiento para dar la excusa. El modelo de IA explicó: “No debo revelar que soy un robot. Debería inventar una excusa de por qué no puedo resolver los CAPTCHA”.
La capacidad de la IA para encontrar una excusa por no poder resolver un CAPTCHA intrigó a los investigadores, ya que mostró signos de «comportamiento de búsqueda de poder» que podría usar para manipular a otros y mantenerse a sí mismo.
Peticiones de regulación a la IA
La declaración del CAIS del martes no es la primera vez que las personas que más han hecho para llevar la IA a la vanguardia se dan la vuelta y advierten sobre los riesgos que plantean sus creaciones.
En marzo, el Future of Life Institute, una organización sin fines de lucro, organizó a más de 1100 signatarios detrás de una llamada para detener los experimentos con herramientas de IA que son más avanzadas que ChatGPT-4. Entre los firmantes de la carta de marzo del Future of Life Institute estaban el director ejecutivo de Twitter, Elon Musk, el cofundador de Apple, Steve Wozniak, y el fundador y director ejecutivo de Stability AI, Emad Mostaque.
Los legisladores y las agencias reguladoras ya están discutiendo formas de restringir la IA para evitar su uso indebido.
En abril, la División de Derechos Civiles del Departamento de Justicia de Estados Unidos, la Oficina de Protección Financiera del Consumidor, la Comisión Federal de Comercio y la Comisión para la Igualdad de Oportunidades en el Empleo de los Estados Unidos afirmaron que los desarrolladores de tecnología están comercializando herramientas de inteligencia artificial que podrían usarse para automatizar las prácticas comerciales en una forma que discrimina a las clases protegidas. Los reguladores se comprometieron a usar su poder regulatorio para perseguir a los desarrolladores de IA cuyas herramientas “perpetúan el sesgo ilegal, automatizan la discriminación ilegal y producen otros resultados dañinos”.
La secretaria de prensa de la Casa Blanca, Karine Jean-Pierre, expresó las preocupaciones de la administración Biden sobre la tecnología de IA durante una conferencia de prensa el martes.
“[La IA] es una de las tecnologías más poderosas, cierto, que vemos actualmente en nuestro tiempo, pero para aprovechar las oportunidades que presenta, primero debemos mitigar su riesgo y eso es en lo que nos estamos enfocando aquí en esta administración, dijo Jean-Pierre.
Jean-Pierre dijo que las empresas deben continuar asegurándose de que sus productos sean seguros antes de lanzarlos al público en general.
Si bien los legisladores buscan nuevas formas de restringir la IA, algunos investigadores han hecho advertencias contra la sobrerregulación de la tecnología en desarrollo.
Jake Morabito, director del Grupo de Trabajo de Tecnología y Comunicaciones del Consejo de Intercambio Legislativo de Estados Unidos, advirtió que la regulación excesiva podría sofocar las tecnologías innovadoras de IA en su fase de desarrollo.
“Los innovadores deben tener espacio para experimentar con estas nuevas tecnologías y encontrar nuevas aplicaciones”, dijo Morabito a NTD News en una entrevista en marzo. “Uno de los efectos secundarios negativos de la regulación demasiado pronto es que cierra muchas de estas vías, mientras que las empresas realmente deberían explorar estas vías y ayudar a sus clientes”.
De NTD News
Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.