El CEO de Twitter, Elon Musk, se unió a docenas de expertos en inteligencia artificial (IA) y ejecutivos de la industria para firmar una carta abierta en la que pide a todos los laboratorios de IA que «pausen de inmediato» el entrenamiento a sistemas que son más potentes que Chat GPT-4 durante, al menos, seis meses.
La carta, emitida por la organización sin fines de lucro Future of Life Institute, ha sido firmada por más de 1100 personas, incluido el cofundador de Apple, Steve Wozniak, el fundador y director ejecutivo de Stability AI, Emad Mostaque, e ingenieros de Meta y Google, entre otros.
Argumentan que los sistemas de IA con inteligencia humana-competitiva pueden plantear «riesgos profundos para la sociedad y la humanidad» y cambiar la «historia de la vida en la Tierra», citando una extensa investigación sobre el tema y reconocimientos de los «principales laboratorios de IA».
Los expertos continúan afirmando que actualmente existe una planificación y gestión limitadas en relación con los sistemas avanzados de IA, a pesar de que en los últimos meses las empresas se han visto “atrapadas en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie (ni siquiera sus creadores) puede comprender, predecir o controlar de forma fiable”.
“Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales y debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los gratificantes? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos”, dice la carta.
Se necesitan protocolos de seguridad
“Los sistemas de inteligencia artificial potentes deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, agrega.
La carta pide una pausa mínima de seis meses, pública y verificable, en el entrenamiento de sistemas de IA más potentes que el GPT-4, o una moratoria gubernamental sobre dicho entrenamiento si la pausa no puede aplicarse rápidamente.
Durante tal pausa, los laboratorios de IA y los expertos independientes deberían usar el tiempo para crear e implementar un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzado de IA que sean «rigurosamente auditados» y supervisados por expertos externos independientes, dice la carta.
Dichos protocolos deben diseñarse para garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable, precisos, confiables y alineados, dijeron los expertos.
Además, la carta pide a los legisladores que desarrollen rápidamente sistemas sólidos de gobernanza de IA, como autoridades que puedan supervisar y rastrear sistemas de IA altamente capaces, recaudar fondos para investigación adicional de seguridad ante las IA y establecer instituciones que puedan hacer frente a lo que dicen será las “dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que causará la IA”.
“Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás en la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes”, señalaron los expertos en su carta.
La carta se conoce solo dos semanas después de que OpenAI, el creador del sistema de inteligencia artificial ChatGPT, lanzara la tan esperada actualización de su tecnología de IA el 14 de marzo: Chat GPT-4, el sistema de IA más poderoso de la historia.
Lanzamiento de la actualización de ChatGPT
Según OpenAI, respaldado por Microsoft, el sistema actualizado tiene una serie de nuevas capacidades, como aceptar imágenes como entradas y generar subtítulos, clasificaciones y análisis, pero es más seguro y preciso que su predecesor.
En una declaración de febrero, OpenAI reconoció que, en algún momento, puede ser importante obtener una «revisión independiente antes de comenzar a entrenar sistemas futuros, y para las iniciativas más avanzadas para acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos”.
“Creemos que son importantes los estándares públicos sobre cuándo un esfuerzo de AGI debe detener una ejecución de capacitación, decidir si es seguro lanzar un modelo o retirar un modelo del uso de producción. Finalmente, creemos que es importante que los principales gobiernos del mundo tengan conocimiento sobre las carreras de entrenamiento por encima de cierta escala”, dijo la compañía.
A principios de esta semana, Europol, la agencia de aplicación de la ley de la Unión Europea, advirtió sobre las graves implicaciones del uso de ChatGPT para el delito cibernético y otras actividades maliciosas, incluida la difusión de desinformación.
Se han planteado más preocupaciones sobre el software, que se entrena utilizando el aprendizaje reforzado a partir de la retroalimentación humana (RLHF), en particular con respecto a cómo se puede usar para ayudar a los estudiantes a hacer trampa en sus exámenes y tareas.
A pesar de esas preocupaciones, la popularidad de ChatGPT ha llevado a las empresas rivales a lanzar productos similares.
La semana pasada, Google anunció que había lanzado su aplicación de inteligencia artificial, conocida como «Bard», para realizar pruebas en el Reino Unido y Estados Unidos, aunque la empresa ha tardado mucho más en lanzar la tecnología en comparación con su rival, citando la necesidad de más comentarios sobre la aplicación.
Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.