Bill Gates: «Existe la posibilidad de que las IA se salgan de control»

Por Naveen Athrappully
30 de marzo de 2023 2:07 PM Actualizado: 30 de marzo de 2023 2:07 PM

Bill Gates elogió recientemente la evolución de la inteligencia artificial, su relación con OpenAI y dio una breve advertencia sobre la situación que otros expertos en la materia, incluido Elon Musk, describen de manera diferente.

El cofundador de Microsoft dijo el 21 de marzo en GatesNotes sobre la IA en un tono optimista: “El desarrollo de la IA es tan fundamental como la creación del microprocesador, la computadora personal, Internet y el teléfono móvil. Cambiará la forma en que las personas trabajan, aprenden, viajan, obtienen atención médica y se comunican entre sí. Industrias enteras se reorientarán a su alrededor. Las empresas se distinguirán por lo bien que la usen”.

Gates dijo que la IA puede ayudar con varias agendas progresistas, incluido el cambio climático y las desigualdades económicas, pero que dicha tecnología es «perturbadora» e «inquietará a la gente».

“Las IA también cometen errores de hecho y experimentan alucinaciones”. Las alucinaciones de IA son respuestas seguras de una IA que no se basan en sus datos de entrenamiento. Las alucinaciones frecuentes se consideran un problema importante con modelos de lenguaje grandes como ChatGPT.

“Además, los avances en IA permitirán la creación de un agente personal. Piense en ello como un asistente personal digital: Verá sus últimos correos electrónicos, conocerá las reuniones a las que asiste, leerá lo que lea y leerá las cosas con las que no quiere molestarse”, dijo Gates.

Estos asistentes personales serán parte de las reuniones de las empresas y se encargarán de tareas administrativas como «presentar reclamos de seguros, lidiar con el papeleo y redactar notas de una visita al médico» en la industria del cuidado de la salud. En la etapa posterior, «podrán predecir los efectos secundarios y determinar los niveles de dosificación».

Con respecto al sector de la educación, Gates dijo: “Conocerá sus intereses y su estilo de aprendizaje para que pueda adaptar el contenido que lo mantendrá comprometido. Medirá su comprensión, notará cuándo está perdiendo interés y comprenderá a qué tipo de motivación responde. Dará retroalimentación inmediata”.

La otra cara de la IA

Gates comienza esta sección de su publicación con el hecho de que la IA no entiende el «contexto de la solicitud de un ser humano», lo que lleva a «resultados extraños». Por ejemplo, “cuando pides consejo sobre un viaje que quieres hacer, puede que te sugiera hoteles que no existen”.

Aunque estos problemas técnicos se resolverán, hay algunos problemas que representan un peligro mayor.

“Por ejemplo, existe la amenaza que representan los humanos armados con IA. Como la mayoría de los inventos, la inteligencia artificial se puede utilizar para fines buenos o malos”.

Luego agregó: “Entonces existe la posibilidad de que las IA se salgan de control. ¿Podría una máquina decidir que los humanos son una amenaza, concluir que sus intereses son diferentes a los nuestros o simplemente dejar de preocuparse por nosotros?

Gates procede entonces a hablar de IAs superinteligentes (un algoritmo de aprendizaje que funciona a la velocidad de un ordenador) que quizá esté «a una década o a un siglo de distancia».

“Estas IA ‘fuertes’, como se las conoce, probablemente podrán establecer sus propios objetivos. ¿Cuáles serán esos objetivos? ¿Qué sucede si entran en conflicto con los intereses de la humanidad?”

Gates mencionó su relación con OpenAI, la compañía detrás de ChapGPT, que se remonta a 2016. A fines de enero, OpenAI y Microsoft compartieron un anuncio sobre su asociación e inversión.

OpenAI utiliza la plataforma en la nube Azure de Microsoft. Microsoft invirtió USD 10,000 millones en OpenAI, basándose en rondas de financiación anteriores realizadas en 2019 y 2021. OpenAI y Microsoft tienen una estructura de asociación complicada, ya que la plataforma de IA sigue siendo una empresa «con ánimo de lucro», mientras que sus operaciones se rigen por la organización sin ánimo de lucro OpenAI.

Sin embargo, no todos tienen una opinión positiva sobre la IA y la relación de Gates con OpenAI.

La respuesta no tan optimista de Elon Musk

Elon Musk dijo en un tuit del 27 de marzo: “Recuerdo las primeras reuniones con Gates. Su comprensión de la IA era limitada. Todavía lo es”.

La relación de Musk con OpenAI comenzó en 2015, cuando se lanzó el proyecto junto con otros veteranos de la industria como Sam Altman, de Y Combinator, e Ilya Sutskever, un científico investigador de Google. Musk fue uno de los financiadores originales de OpenAI. Dejó la organización en 2018, posiblemente debido a un conflicto de intereses con la división de IA de Tesla.

En general, Musk no ha presentado una imagen optimista de la IA, a diferencia de Gates. Dijo en un tuit en 2014: “Tenemos que tener mucho cuidado con la IA. [Es] potencialmente más peligrosa que las armas nucleares”.

En un tuit de diciembre, dijo: “ChatGPT es terriblemente bueno. No estamos lejos de una IA peligrosamente fuerte”.

Después de la reciente popularidad y el crecimiento explosivo de ChatGPT, Musk, junto con cerca de 1377 expertos, firmaron una carta abierta titulada «Pausen los experimentos gigantes de IA». En la carta se pedía a «todos los laboratorios de IA que hicieran una pausa inmediata durante al menos 6 meses en el entrenamiento de sistemas de IA más potentes que GPT-4”.

GPT-4 es la última versión de ChatGPT, la cual se lanzó en marzo.

La carta comenzaba diciendo que la IA debería “planificarse y administrarse con el cuidado y los recursos correspondientes”, pero eso no está sucediendo.

Ante la transformación «humana-competitiva en tareas generales» de la IA, la carta pregunta: «¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los gratificantes? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización?

“Tales decisiones no deben delegarse en líderes tecnológicos no elegidos”.

La carta pide «protocolos de seguridad» en la construcción de dicha tecnología con desarrolladores de IA que trabajen en conjunto con los formuladores de políticas. Estos sistemas deben hacer que la IA sea «segura más allá de toda duda razonable».

“La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos precipitemos sin estar preparados”, concluyó la carta.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.