El gobernador de California, Gavin Newsom, vetó el domingo un proyecto de ley muy debatido para regular la inteligencia artificial (IA) aprobado por la Asamblea Legislativa en agosto.
El proyecto de ley 1047 del Senado, Ley de Innovación Segura para Modelos Fronterizos de Inteligencia Artificial, elevó el debate sobre la regulación de la IA.
Si Newsom hubiera convertido el proyecto en ley, habría exigido probar los modelos de IA para garantizar que no provocan muertes masivas, ataques a infraestructuras públicas o ciberataques.
La legislación también habría creado protecciones para los denunciantes, así como una nube pública para el desarrollo de la IA para el bien público.
El SB 1047 también habría creado la Junta de Modelos de Frontera, una entidad estatal californiana, para supervisar el desarrollo de modelos de IA.
Newsom examinó a fondo el proyecto de ley en su veto, señalando que corre el riesgo de «restringir la innovación misma que alimenta el avance en favor del bien público».
También dijo que el proyecto de ley regula la IA de forma general y carece de un análisis empírico de las amenazas reales que plantea la IA.
«Un enfoque solo para california puede estar justificado —especialmente en ausencia de una acción federal por parte del Congreso—, pero debe basarse en pruebas empíricas y en la ciencia», escribió.
Newsom también se mostró en desacuerdo con el hecho que el proyecto de ley se aplique principalmente a los modelos de IA caros, es decir, los que cuestan más de 100 millones de dólares desarrollar o requieren más de una cierta cantidad de potencia informática para entrenarse. En opinión del gobernador, los modelos de IA baratos podrían suponer una amenaza igual de grave para el bien público o las infraestructuras críticas.
«Los modelos más pequeños y especializados pueden resultar igual o incluso más peligrosos que los modelos a los que se dirige el SB 1047», escribió Newsom.
El gobernador dijo que la legislación podría frenar los avances en interés del bien público. Por esa razón, Newsom cree que el SB 1047 podría dar al público «una falsa sensación de seguridad» en lo que respecta a la IA.
Además, Newsom dijo que la SB 1047 no tiene en cuenta si un modelo de IA se despliega en entornos de alto riesgo o utiliza información sensible.
«En su lugar, el proyecto de ley aplica normas estrictas incluso a las funciones más básicas, siempre que un gran sistema lo despliegue», escribió Newsom. «No creo que este sea el mejor enfoque para proteger al público de las amenazas reales que plantea la tecnología».
Newsom dijo que cree que California debe aprobar una ley para regular la IA, y que sigue «comprometido a trabajar con la Legislatura, los socios federales,» y otros en el estado y la nación para «encontrar el camino apropiado a seguir, incluyendo la legislación y la regulación».
El senador demócrata de San Francisco Scott Wiener, autor del proyecto de ley, dijo que el veto era «una oportunidad perdida para que California lidere una vez más la regulación de la tecnología innovadora» y «un revés para todos los que creen en la supervisión de las grandes corporaciones que están tomando decisiones críticas» en lo que respecta al uso de la IA.
Entre los partidarios del proyecto de ley se encuentran Elon Musk, la empresa de IA Anthropic, el Centro para la Seguridad de la IA, la organización sin ánimo de lucro Encode Justice, la Organización Nacional de Mujeres y denunciantes de la empresa de IA OpenAI, entre otros.
El historial de críticas de Elon Musk a los legisladores de California hizo que su respaldo a la SB 1047 fuera una sorpresa.
«Esta es una decisión difícil y hará que algunas personas se molesten, pero, considerando todas las cosas, creo que California probablemente debería aprobar el proyecto de ley de seguridad de IA SB 1047», publicó en X, la plataforma de redes sociales de la que es propietario. «Durante más de 20 años, he sido un defensor de la regulación de la IA, al igual que regulamos cualquier producto/ tecnología que sea un riesgo potencial para el público».
Otros partidarios son el Sindicato Internacional de Empleados de Servicios, la Fundación de la Comunidad Latina y SAG-AFTRA.
Una encuesta en línea realizada por el Artificial Intelligence Policy Institute del 4 al 5 de agosto muestra que el 65 por ciento de los 1000 votantes de California que respondieron apoyan el SB 1047. La encuesta tiene un margen de error de 4.9 puntos porcentuales.
Entre los que se oponen al proyecto de ley figuran gigantes tecnológicos como Google, Meta y OpenAI, que afirman que la ley socavaría la economía de California y la industria de la IA.
Varios miembros de la delegación de California en el Congreso pidieron a Newsom que vetara la ley antes que la Legislatura de California la aprobara el mes pasado en una votación aplastante.
La Cámara de Comercio de California celebró el veto de Newsom.
«Estamos agradecidos al gobernador Newsom por el veto del SB 1047. Los esfuerzos regulatorios para promover la seguridad #AI son críticos, pero el SB 1047 falló en aspectos clave», escribió la presidenta y CEO de la Cámara, Jennifer Barrera. «Como consecuencia, el proyecto de ley habría sofocado la innovación de IA, poniendo el lugar de California como el centro mundial de innovación en un tremendo riesgo».
En septiembre, Newsom firmó aproximadamente una docena de proyectos de ley sobre diversas regulaciones de IA. Una de ellas, Ley de la Asamblea 2655, protege a los votantes de las falsificaciones profundas y a las personas del uso de su imagen por otros sin consentimiento.
Otros proyectos de ley exigen a las empresas que compartan información sobre cómo se utilizan los datos para entrenar modelos de IA generativa, así como que proporcionen herramientas para que los consumidores puedan ver si un determinado medio de comunicación está hecho por humanos o por IA.
El veto del SB 1047 desbarata los esfuerzos de la Legislatura de California por alinear la normativa estatal sobre IA con la Ley de IA de la Unión Europea.
En septiembre de 2023, Newsom emitió una orden ejecutiva en la que ordenaba a los organismos californianos que realizaran evaluaciones de riesgo de las amenazas y vulnerabilidades que la IA supone para las infraestructuras críticas de California.
El Instituto de Seguridad de la Inteligencia Artificial de EE.UU., dependiente del Instituto Nacional de Ciencia y Tecnología, está elaborando orientaciones sobre los riesgos de seguridad. Newsom dijo que el planteamiento de la agencia federal implica «enfoques basados en pruebas» para salvaguardar al público.
Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo clic aquí
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.