Opinión
OpenAI, la empresa responsable de ChatGPT, acaba de anunciar la creación de un nuevo equipo con una tarea muy concreta: impedir que los modelos de IA supongan «riesgos catastróficos» para la humanidad.
Preparedness, el equipo acertadamente titulado, estará supervisado por Aleksander Madry, experto en aprendizaje automático e investigador afiliado al Instituto Tecnológico de Massachusetts. Madry y su equipo se centrarán en varias amenazas, sobre todo las de tipo «químico, biológico, radiológico y nuclear». Pueden parecer amenazas descabelladas, pero no deberían serlo.
Como informó Naciones Unidas este año, el riesgo de que los países recurran a las armas nucleares está en su punto más alto desde la Guerra Fría. Este informe se publicó antes de los terribles sucesos ocurridos en Israel el 7 de octubre. Un estrecho aliado de Vladimir Putin, Nikolai Patrushev, sugirió recientemente que las políticas «destructivas» de «Estados Unidos y sus aliados estaban aumentando el riesgo de que se utilizaran armas nucleares, químicas o biológicas», según Reuters.
Si se combina la IA con las armas mencionadas, especialmente las nucleares, advierte Zachary Kallenborn, investigador afiliado a la División de Armas No Convencionales y Tecnología del Consorcio Nacional para el Estudio del Terrorismo y las Respuestas al Terrorismo (START), se tiene la receta para un desastre sin paliativos.
Kallenborn ha dado la voz de alarma, en repetidas ocasiones y sin pedir disculpas, sobre la impía alianza entre la IA y las armas nucleares. Sin pelos en la lengua, el investigador advirtió: «Si las inteligencias artificiales controlaran las armas nucleares, todos nosotros podríamos estar muertos».
No exagera. Hace exactamente 40 años, Stanislav Petrov, teniente coronel de las Fuerzas de Defensa Aérea soviéticas, supervisaba los sistemas de alerta nuclear de su país.
De repente, según Kallenborn, «el ordenador concluyó con la máxima seguridad que Estados Unidos había iniciado una guerra nuclear». Petrov, sin embargo, se mostró escéptico, en gran medida porque no confiaba en el sistema de detección actual. Además, el sistema de radar carecía de pruebas que lo corroboraran.
Afortunadamente, Petrov llegó a la conclusión de que el mensaje era un falso positivo y optó por no actuar. Alerta de aguafiestas: el ordenador estaba completamente equivocado, y el ruso tenía toda la razón.
«Pero», señaló el Sr. Kallenborn, consultor de seguridad nacional, «si Petrov hubiera sido una máquina, programada para responder automáticamente cuando la confianza fuera suficientemente alta, ese error habría iniciado una guerra nuclear».
Además, sugirió, no hay absolutamente «ninguna garantía» de que ciertos países «no pongan a la IA a cargo de los lanzamientos nucleares», porque el derecho internacional «no especifica que siempre deba haber un ‘Petrov’ custodiando el botón.»
«Eso es algo que debería cambiar, pronto», dijo Kallenborn.
Me dijo que la IA ya está remodelando el futuro de la guerra.
La inteligencia artificial, según Kallenborn, «puede ayudar a los ejércitos a procesar de forma rápida y más eficaz grandes cantidades de datos generados por el campo de batalla; hacer que la base industrial de defensa sea más eficaz y eficiente en la producción de armas a escala, y puede ser capaz de mejorar la orientación de las armas y la toma de decisiones.»
Tomemos como ejemplo a China, posiblemente la mayor amenaza para Estados Unidos, y sus aplicaciones militares basadas en IA. Según un informe de la Universidad de Georgetown, en un futuro no muy lejano, Beijing podría utilizar la IA no solo para ayudar en tiempos de guerra, sino para supervisar todos los actos bélicos.
Esto debería preocupar a todos los lectores.
«Si el lanzamiento de armas nucleares se delega en un sistema autónomo», Kallenborn teme que «puedan lanzarse por error, provocando una guerra nuclear accidental».
«Añadir la IA al mando y control nuclear», dijo, «también puede conducir a información engañosa o errónea».
Tiene razón. La IA depende de los datos, y a veces los datos son tremendamente inexactos.
Aunque no hay un país en particular que le quite el sueño a Kallenborn, le preocupa «la posibilidad de que el presidente ruso Vladimir Putin utilice pequeñas armas nucleares en el conflicto de Ucrania». Incluso un uso nuclear limitado «sería bastante malo a largo plazo» porque se eliminaría «el tabú nuclear», lo que «animaría a otros estados a ser más arrogantes con el uso de armas nucleares.»
«Las armas nucleares», según Kallenborn, son la «mayor amenaza para la humanidad».
«Son la única arma existente que puede causar daños suficientes para provocar realmente la extinción humana», afirmó.
Como ya se ha mencionado, añadir la IA a la mezcla nuclear parece aumentar el riesgo de extinción masiva. Las advertencias de Kallenborn, un respetado investigador que ha dedicado años de su vida a investigar la evolución de la guerra nuclear, tienen mucha credibilidad.
Las opiniones expresadas en este artículo son las del autor y no reflejan necesariamente los puntos de vista de The Epoch Times.
Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí
Las opiniones expresadas en este artículo son propias del autor y no necesariamente reflejan las opiniones de The Epoch Times
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.