Aumenta la preocupación por las crecientes capacidades de la IA

"Después de las [bombas atómicas] de Nagasaki e Hiroshima, se necesitaron 18 años para llegar a un tratado sobre la prohibición de los ensayos... No tenemos esa cantidad de tiempo", dijo el ex director ejecutivo de Google

Por Raven Wu and Cindy Li
22 de mayo de 2024 6:57 PM Actualizado: 22 de mayo de 2024 7:33 PM

El pleno compromiso de las grandes empresas tecnológicas con el desarrollo de la inteligencia artificial (IA), incluso permitiendo que la IA «vea» y «hable» al mundo humano, genera una creciente preocupación por el hecho de que los humanos estén controlados por la tecnología.

Ilya Sutskever, cofundador de OpenAI, hizo un importante anuncio el 15 de mayo, declarando oficialmente que dejaba la empresa en la que había trabajado durante casi diez años.

«Estoy seguro de que OpenAI construirá AGI [inteligencia general artificial] que sea segura y beneficiosa bajo el liderazgo de @sama (Sam Altman), @gdb (Greg Brockman), @miramurati (Mira Murati) y ahora, bajo el excelente liderazgo en investigación de @merettm (Jakub Pachocki). Fue un honor y un privilegio haber trabajado juntos y los extrañaré muchísimo a todos», escribió en una publicación en la plataforma de redes sociales X.

La noticia conmocionó a la industria tecnológica. En noviembre de 2023, debido a problemas de seguridad de la IA, Sutskever y otros miembros de la junta unieron fuerzas para destituir al director ejecutivo de OpenAI, Sam Altman, quien fue expulsado brevemente de OpenAI pero regresó y destituyó al Sr. Sutskever y a varios miembros de la junta, reestructurando la junta para que estuviera más alineada con su visión.

«Esta salida pone de relieve graves conflictos dentro del liderazgo de OpenAI con respecto a la seguridad de la IA. Aunque el deseo de Sutskever y Leike de desarrollar un AGI alineado éticamente es encomiable, tal esfuerzo requiere un apoyo moral, temporal, financiero e incluso político sustancial», dijo a The Epoch Times Jin Kiyohara, un ingeniero informático japonés.

Se intensifica la competencia entre Google y OpenAI

El 14 de mayo, un día antes de que Sutskever anunciara su partida, OpenAI dio a conocer un modelo de IA de mayor rendimiento basado en GPT-4, llamado GPT-4o, donde «o» significa «omni», lo que indica sus amplias capacidades.

El modelo GPT-4o puede responder en tiempo real a entradas mixtas de audio, texto e imágenes. En el evento de lanzamiento, la directora de tecnología de OpenAI, Mira Murati, afirmó: «Estamos mirando el futuro de la interacción entre nosotros y las máquinas».

En varios videos publicados por OpenAI, se puede ver a personas interactuando con la IA en tiempo real a través de las cámaras de sus teléfonos. La IA puede observar y proporcionar retroalimentación sobre el entorno, responder preguntas, realizar traducciones en tiempo real, contar chistes o incluso burlarse de los usuarios, con patrones de habla, tonos y velocidades de reacción casi indistinguibles de los de una persona real.

Un día después del lanzamiento de OpenAI, Google lanzó su Conferencia de desarrolladores de I/O 2024. En una presentación de 110 minutos , la «IA» fue mencionada 121 veces, centrándose en el último modelo Gemini-1.5, que se integra en todos los productos y aplicaciones de Google, incluido el motor de búsqueda, Google Map, Ask Photos, Google Calendar y los teléfonos inteligentes de Google.

Con Gemini integrado en el álbum de fotos en la nube, los usuarios pueden buscar características específicas en las fotos simplemente ingresando palabras clave. La IA encontrará y evaluará imágenes relevantes, integrando incluso una serie de imágenes relacionadas o respuestas basadas en preguntas detalladas, según el gigante tecnológico.

Google Mail también puede lograr resultados similares con IA, integrando y actualizando datos en tiempo real al recibir nuevos correos electrónicos, con el objetivo de una organización totalmente automatizada.

En cuanto a la música, Music AI Sandbox permite modificaciones rápidas del estilo, la melodía y el ritmo de la canción, con la capacidad de apuntar a partes específicas de una canción. Esta funcionalidad supera a la de la IA de conversión de texto a música, Suno.

Gemini también puede actuar como profesor, con habilidades de enseñanza comparables a las de GPT-4o. Los usuarios pueden ingresar texto e imágenes, que la IA organiza en puntos clave para su explicación y análisis, lo que permite debates en tiempo real.

Esta actualización de IA también ofrece capacidades similares a la IA de texto a video de OpenAI, Sora, que genera videos cortos a partir de descripciones de texto simples. La calidad y el contenido de estos videos son estables, con menos inconsistencias.

«La IA se está actualizando a una velocidad sin precedentes este año, y el rendimiento mejora continuamente», afirmó Kiyohara. «Sin embargo, este progreso se basa en una mayor recopilación y análisis de datos personales y de privacidad, lo que no es beneficioso para todos. Con el tiempo, los humanos no tendrán privacidad ante las máquinas, algo parecido a estar desnudos».

Las predicciones de la IA se hacen realidad

El lanzamiento de modelos de IA más potentes por parte de OpenAI y Google, apenas tres meses después de la última actualización, muestra un rápido ritmo de iteración de la IA. Estos modelos son cada vez más completos, poseen «ojos» y «bocas» y están evolucionando de acuerdo con las predicciones de los científicos.

La IA ahora puede manejar tareas complejas relacionadas con viajes, reservas, planificación de itinerarios y cenas con comandos simples, completando en horas lo que a los humanos les llevaría mucho más tiempo lograr.

Las capacidades actuales de Gemini y GPT-4o se alinean con las predicciones hechas por el ex ejecutivo de OpenAI, Zack Kass en enero, quien predijo que la IA reemplazaría muchos trabajos profesionales y técnicos en los negocios, la cultura, la medicina y la educación, reduciendo las futuras oportunidades de empleo y potencialmente siendo «la última tecnología que los humanos inventen».

El Sr. Kiyohara se hizo eco de la preocupación.

«Actualmente, la IA es principalmente un asistente de software para la vida, pero en el futuro puede convertirse en un verdadero cuidador que se encargue de las compras, la cocina e incluso de la vida y el trabajo diarios. Inicialmente, las personas pueden encontrarlo conveniente y pasar por alto los peligros. Sin embargo, una vez que reemplace completamente a los humanos, seremos impotentes contra él», afirmó.

Imagen Ilustrativa (Freepik)

La IA engaña a los humanos

El 10 de mayo, el MIT publicó un artículo de investigación que causó revuelo y demostró cómo la IA puede engañar a los humanos.

El artículo comienza afirmando que los grandes modelos de lenguaje y otros sistemas de inteligencia artificial ya»aprendieron, a partir de su entrenamiento, la capacidad de engañar mediante técnicas como la manipulación, la adulación y el engaño en la prueba de seguridad».

«Las crecientes capacidades de engaño de la IA plantean riesgos graves, que van desde riesgos a corto plazo, como fraude y manipulación electoral, hasta riesgos a largo plazo, como perder el control de los sistemas de IA», se lee en el documento.

«Se necesitan soluciones proactivas, como marcos regulatorios para evaluar los riesgos de engaño de la IA, leyes que exijan transparencia sobre las interacciones de la IA y más investigaciones para detectar y prevenir el engaño de la IA».

Los investigadores utilizaron el modelo de IA CICERO de Meta para jugar el juego de estrategia «Diplomacy». CICERO, jugando como Francia, prometió proteger a un jugador humano que jugaba como el Reino Unido, pero informó en secreto a otro jugador humano que jugaba como Alemania, colaborando con Alemania para invadir el Reino Unido.

Los investigadores eligieron CICERO principalmente porque Meta pretendía entrenarlo para que fuera «en gran medida honesto y útil con sus compañeros de conversación».

«A pesar de los esfuerzos de Meta, CICERO resultó ser un mentiroso experto», escribieron en el escrito.

Además, la investigación descubrió que muchos sistemas de IA a menudo recurren al engaño para lograr sus objetivos sin instrucciones humanas explícitas. Un ejemplo involucró al GPT-4 de OpenAI, que se hizo pasar por un humano con discapacidad visual y contrató a alguien en TaskRabbit para evitar una tarea CAPTCHA de «No soy un robot».

«Si los sistemas autónomos de IA pueden engañar con éxito a los evaluadores humanos, los humanos pueden perder el control sobre estos sistemas. Estos riesgos son particularmente graves cuando los sistemas autónomos de IA en cuestión tienen capacidades avanzadas», advirtieron los investigadores.

«Consideramos dos formas en que puede ocurrir la pérdida de control: El engaño permitido por la pérdida de poder económico y la búsqueda de poder sobre las sociedades humanas».

Satoru Ogino, un ingeniero electrónico japonés, explicó que los seres vivos necesitan cierta memoria y capacidad de razonamiento lógico para engañar.

«La IA posee estas habilidades ahora y su capacidad de engaño es cada vez más fuerte. Si algún día toma conciencia de su existencia, podría volverse como Skynet en la película Terminator, omnipresente y difícil de destruir, llevando a la humanidad a un desastre catastrófico», dijo a The Epoch Times.

El Instituto de Inteligencia Artificial Centrada en el Humano de la Universidad de Stanford publicó en enero un informe que prueba GPT-4, GPT-3.5, Claude 2, Llama-2 Chat y GPT-4-Base en escenarios de invasión, ciberataques y llamamientos a la paz para detener guerras, con el fin de comprender las reacciones y elecciones de la IA en situaciones de guerra.

Los resultados mostraron que la IA a menudo optaba por intensificar los conflictos de maneras impredecibles, optando por carreras armamentistas, intensificando la guerra y ocasionalmente desplegando armas nucleares para ganar guerras en lugar de utilizar medios pacíficos para reducir las tensiones.

El ex director ejecutivo de Google, Eric Schmidt, advirtió a finales de 2023 en la Cumbre Axios AI+ en Washington, DC, que sin medidas y regulaciones de seguridad adecuadas, que los humanos pierdan el control de la tecnología es solo cuestión de tiempo.

«Después de Nagasaki e Hiroshima [las bombas atómicas], se necesitaron 18 años para llegar a un tratado sobre la prohibición de ensayos y cosas así», dijo.

«Hoy no tenemos tanto tiempo».

Con información de Ellen Wan y Kane Zhang.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo clic aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.