El 29 de agosto, la legislatura de California aprobó un proyecto de ley que busca regular los modelos de inteligencia artificial (IA) y establecer directrices para el desarrollo de los sistemas más poderosos. La medida está en espera de la firma del gobernador Gavin Newsom.
El Proyecto de Ley del Senado 1047, presentado por el senador Scott Wiener, regularía los modelos de IA y crearía un marco para el desarrollo de un sistema de computación en la nube pública —conocido como CalCompute—, que permita la participación abierta en la industria.
La propuesta cuenta con el apoyo de docenas de empresas tecnológicas, sindicatos y otras organizaciones, incluyendo la Cámara de Comercio del Área de Los Ángeles; el Center for AI Safety Action Fund, una organización sin fines de lucro con sede en San Francisco enfocada en la investigación; y el Economic Security Project Action, una organización sin fines de lucro con personal en todo el país que aboga por el poder económico para todos los estadounidenses, entre otros.
No obstante, el proyecto de ley es objeto de un intenso debate por parte de más de 100 organizaciones, incluidas numerosas empresas tecnológicas, la Cámara de Comercio de California y la Asociación de Fabricantes y Tecnología de California —que representa a 400 empresas—, entre otras.
Los opositores generalmente se oponen a lo que consideran regulaciones excesivamente estrictas que limitarían la capacidad de la industria para innovar.
El autor del proyecto de ley dijo que, aunque la IA puede ayudar a avanzar en el conocimiento de la medicina, la previsión de incendios forestales y otras tecnologías emergentes, la medida es necesaria para proteger a los californianos de consecuencias no deseadas y del posible uso malintencionado de modelos de computación poderosos.
«[La IA] también nos da la oportunidad de aplicar las lecciones difíciles aprendidas en la última década, ya que hemos visto las consecuencias de permitir el crecimiento descontrolado de nuevas tecnologías sin evaluar, entender o mitigar los riesgos», dijo Wiener en un análisis legislativo. «El SB 1047 hace precisamente eso, al desarrollar barreras responsables y apropiadas en torno al desarrollo de los sistemas de IA más grandes y poderosos, para asegurar que se utilicen para mejorar la vida de los californianos, sin comprometer la seguridad o protección».
El gigante tecnológico y multimillonario Elon Musk expresó su apoyo a la medida en los últimos días.
“Esta es una decisión difícil y molestará a algunas personas, pero considerando todo, creo que California debería aprobar el proyecto de ley SB 1047 sobre seguridad en IA”, publicó Musk el 26 de agosto en X. “Durante más de 20 años, he sido un defensor de la regulación de la IA, al igual que regulamos cualquier producto/tecnología que sea un riesgo potencial para el público”.
La incertidumbre abunda, según los consultores del Comité Judicial de la Asamblea, quienes dijeron en un análisis publicado en julio, que la industria presenta “oportunidades sin precedentes y desafíos significativos”, ya que los modelos de IA altamente entrenados pueden comportarse de manera impredecible y atraer a actores malintencionados que buscan usar la tecnología con fines nefastos.
“Esta imprevisibilidad, junto con los altos riesgos involucrados, subraya la necesidad de una supervisión rigurosa y protocolos de seguridad”, escribieron los empleados del comité en el análisis.
Los partidarios del proyecto de ley sugieren que los criminales y posibles terroristas podrían usar la tecnología para coordinar ataques, y destacan preocupaciones sobre ciberataques, espionaje y campañas de desinformación como algunos de los ejemplos por los cuales se necesitan regulaciones.
Algunos legisladores de ambas cámaras y de ambos lados del espectro político expresaron su apoyo al proyecto de ley mientras avanzaba a través de la legislatura este año.
“La inteligencia artificial tiene un enorme potencial para beneficiar a nuestro estado, a nuestra nación y al mundo”, dijo el asambleísta demócrata Steve Bennett el 28 de agosto durante una audiencia en la Asamblea. “La inteligencia artificial también tiene un enorme potencial para ser mal utilizada y causar problemas serios que van más allá de nuestra capacidad de imaginar”.
Añadió que la propuesta es un paso necesario para proteger a la industria.
“Este proyecto de ley es, tras mi examen, creo, un toque ligero, el toque más ligero que se podría concebir, que es que las propias empresas deben hacer su debida diligencia para asegurar que esto sea seguro”, dijo Bennett. “Eso es todo lo que hace el proyecto de ley: requerirles que… hagan su propia debida diligencia”.
Mientras que los críticos del proyecto de ley dijeron que podría potencialmente sofocar la innovación, otro miembro de la asamblea rechazó esa noción.
“Es hora de que las grandes tecnológicas jueguen bajo alguna regla. Y, francamente, estoy cansado de escuchar todo este tipo de cosas de, ‘oh, vamos a detener el crecimiento de la tecnología’”, dijo el asambleísta republicano Devon Mathis a sus compañeros antes de votar sobre el proyecto de ley. “No, no lo vamos a hacer. Pero tenemos que poner guías. Tenemos que asegurarnos de que sean jugadores responsables”.
Uno de los coauspiciadores del proyecto de ley dijo que las regulaciones para los sistemas más poderosos —que costarán al menos USD $100 millones para desarrollarse—, son un asunto significativo de seguridad nacional y tienen implicaciones para la seguridad pública.
“SB 1047 introduce salvaguardias esenciales para la creación de modelos de IA altamente capaces”, dijo Encode Justice —un grupo de defensa con sede en California que busca regulaciones para la IA—, en un análisis legislativo.
Los opositores dijeron que el proyecto de ley obstaculizaría innecesariamente a los desarrolladores de IA y a las empresas que utilizan la tecnología, argumentando que la ley los obligaría a resolver todos los tipos de daños potenciales, incluso aquellos que son relativamente inconcebibles.
“Desafortunadamente, el SB 1047 obliga a los desarrolladores de modelos a involucrarse en ficción especulativa sobre amenazas imaginadas de máquinas descontroladas, modelos informáticos fuera de control y otros escenarios de pesadilla para los cuales no hay base en la realidad”, dijo la Chamber of Progress —una coalición de la industria tecnológica con sede en Virginia—, en los análisis legislativos.
Otro crítico dijo que el proyecto de ley es demasiado vago y podría crear obstáculos para el desarrollo de IA de código abierto y para empresas sin equipos legales extensos en comparación con las grandes empresas tecnológicas bien financiadas.
“El proyecto de ley está bien intencionado pero, en última instancia, es erróneo y una amenaza real para la innovación”, publicó Ash Rust, socio gerente del fondo de capital de riesgo Sterling Road, el 30 de agosto en X. “Estamos al amanecer de una nueva era emocionante con la tecnología ofreciendo tanto increíbles beneficios como riesgos. Sin embargo, si somos excesivamente entusiastas y tratamos de regular una tecnología central en lugar de sus aplicaciones negativas potenciales, corremos el riesgo de sofocar la innovación”.
Si finalmente se convierte en ley, los comités de apropiaciones de la legislatura estimaron que las regulaciones costarían al estado entre USD $5 millones y $10 millones anualmente en operaciones gubernamentales, además de entre $4 millones y $6 millones para implementar y operar anualmente el sistema CalCompute.
Los costos para gestionar las violaciones también podrían ascender a varios millones de dólares, dependiendo de su número y la carga de trabajo necesaria para abordarlas, según los comités de apropiaciones.
El gobernador tiene hasta el 30 de septiembre para firmar o vetar el proyecto de ley.
Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo clic aquí
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.