EE.UU. estudia normas para regular herramientas de inteligencia artificial como ChatGPT

Por Eva Fu
11 de abril de 2023 7:52 PM Actualizado: 11 de abril de 2023 7:52 PM

El gobierno de Biden está solicitando la opinión del público sobre medidas para regular herramientas de inteligencia artificial como ChatGPT, a medida que aumentan los interrogantes sobre el impacto de esta tecnología en rápida evolución en la seguridad nacional y la educación.

La Administración Nacional de Telecomunicaciones e Información (NTIA, por sus siglas en inglés), un organismo del Departamento de Comercio que asesora a la Casa Blanca en materia de política de telecomunicaciones e información, declaró que dedicará los próximos 60 días a examinar opciones como auditorías, evaluaciones de riesgos y un posible proceso de certificación para aliviar la ansiedad pública en torno a los modelos de IA.

«Los sistemas de IA responsables podrían aportar enormes beneficios, pero sólo si abordamos sus posibles consecuencias y daños», declaró el 11 de abril Alan Davidson, administrador de la NTIA y subsecretario de Comercio para Comunicaciones e Información. «Para que estos sistemas alcancen todo su potencial, las empresas y los consumidores deben poder confiar en ellos».

ChatGPT, el chatbot interactivo de IA desarrollado por OpenAI, ha acaparado la atención pública por su capacidad para generar conversaciones similares a las humanas procesando grandes cantidades de datos, y puede responder a preguntas complejas en cuestión de segundos. Se ha convertido en una de las aplicaciones de mayor crecimiento de la historia desde su lanzamiento a finales de noviembre, con 1000 millones de visitas sólo en febrero.

Aunque su rapidez para responder a consultas complejas ha cautivado a algunos usuarios, el programa ha suscitado preocupación por la privacidad y la parcialidad partidista. A los investigadores también les preocupa que pueda abrir las compuertas del plagio en las escuelas.

La NTIA quiere conocer la opinión del público sobre las políticas para «dar forma al ecosistema de responsabilidad de la IA», como los tipos de pruebas de confianza y seguridad que deben realizar los desarrolladores de IA y los diferentes enfoques necesarios en los distintos sectores industriales.

«Del mismo modo que los alimentos y los coches no salen al mercado sin las debidas garantías de seguridad, los sistemas de IA también deben garantizar al público, a la Administración y a las empresas que son adecuados para su propósito», afirma la agencia en un comunicado.

La semana pasada, el presidente Joe Biden no aclaró si cree que la IA es peligrosa, pero afirmó que las empresas tecnológicas deben garantizar que sus productos son seguros antes de hacerlos públicos.

Pero los analistas del sector ya han alertado.

A finales del mes pasado, el grupo de ética tecnológica Center for Artificial Intelligence and Digital Policy pidió a la Comisión Federal de Comercio que suspendiera el lanzamiento comercial de la última versión de ChatGPT, GPT-4, por considerarla «tendenciosa, engañosa y un riesgo para la privacidad y la seguridad pública».

Elon Musk, uno de los cofundadores de OpenAI, dijo en febrero que cree que la IA es uno de los «mayores riesgos para el futuro de la civilización». Es uno de los casi 21,000 firmantes de una carta abierta en la que se pide la interrupción durante seis meses del entrenamiento de sistemas de IA más potentes que la GPT-4.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.