El Departamento de Educación federal publicó el 23 de mayo un informe de «Perspectivas y recomendaciones» sobre la inteligencia artificial en la educación, parte de una serie de anuncios de la administración Biden que hacen hincapié en lo que consideran como una necesidad de «equidad» en la IA.
«El departamento sostiene que debe abordarse los sesgos en los algoritmos de la IA cuando introducen o mantienen prácticas discriminatorias injustas en la educación», dice el informe.
El texto no aclara si la agencia cree que existe tal cosa como una «práctica discriminatoria justa», por ejemplo, la discriminación positiva que puede discriminar a grupos en las admisiones educativas, el foco de una importante decisión próxima de la Corte Suprema.
Los autores del informe destacan lo que califican como oportunidades positivas abiertas por la IA.
Entre ellas se incluyen estrategias para compensar la pérdida pandémica de aprendizaje y «una mayor adaptabilidad y personalización de las herramientas digitales de aprendizaje» para estudiantes con discapacidades, multilingües y otros.
Sin embargo, al detallar un ejemplo de posible «discriminación algorítmica» —definida de forma un tanto vaga como «injusticia sistemática en las oportunidades o recursos de aprendizaje recomendados a algunas poblaciones de estudiantes»— los autores se muestran más escépticos ante algunas formas de personalización.
«Si la IA se adapta acelerando el ritmo curricular de algunos alumnos y ralentizando el de otros [basándose en datos incompletos, teorías deficientes o suposiciones sesgadas sobre el aprendizaje], las diferencias de rendimiento podrían aumentar», dice el informe.
La equidad y los temores relacionados con los resultados dispares entre grupos no son las únicas preocupaciones mencionadas en el informe, que cubre la vigilancia de los estudiantes y las preocupaciones sobre la seguridad laboral de los profesores, entre otras áreas.
«El departamento rechaza firmemente la idea de que la IA pueda sustituir a los profesores», dice el informe.
Sin embargo, también caracteriza la discriminación algorítmica como un riesgo de la IA «de la mayor importancia».
Los autores afirman que su análisis surgió en parte de cuatro sesiones de opinión en 2022, en las que participaron más de 700 asistentes.
«Las cuestiones relacionadas con la equidad racial y los prejuicios injustos ocuparon un lugar central en todas las sesiones de opinión que celebramos», se lee en el informe.
Citando los comentarios que han recibido de los «componentes educativos», los autores concluyen que «los sistemas y herramientas de IA deben alinearse con nuestra visión colectiva de un aprendizaje de alta calidad, incluida la equidad».
Los autores también describen el potencial de sesgo como motivador de otro imperativo: «Los sistemas educativos deben gobernar su uso de los sistemas de IA».
En un primer descargo de responsabilidad, señalan que el contenido «no tiene fuerza y efecto de ley y no pretende vincular al público».
El informe del Departamento de Educación llega semanas después de otra serie de anuncios sobre la IA de la administración Biden, que también hacen hincapié en la «equidad racial».
En ese momento, un funcionario dijo a los periodistas que el presidente cree que el Congreso debe actuar sobre la discriminación algorítmica en el sector privado.
A continuación, la vicepresidenta Kamala Harris se reunió con dirigentes de Microsoft, OpenAI, Alphabet y Anthropic para tratar el uso responsable de la IA en sus productos.
El 23 de mayo, Microsoft anunció un nuevo servicio de moderación de contenidos con IA, «Azure Content Safety».
«Puede detectar contenido odioso, violento, sexual y autolesivo en imágenes y texto, y asignar puntuaciones de gravedad, lo que permite a las empresas limitar y priorizar qué contenido deben revisar los moderadores», afirmó Microsoft.
Otros anuncios de IA de la administración Biden, el 23 de mayo, incluyen cambios en el Plan Estratégico Nacional de I+D de IA, desarrollado por primera vez bajo la administración Obama en 2016, y modificado bajo el presidente Donald Trump en 2019.
La equidad es fundamental para el plan, como se detalla en su resumen ejecutivo.
Una estrategia enumerada para la IA es «desarrollar enfoques para comprender y mitigar los riesgos éticos, legales y sociales planteados por la IA para garantizar que los sistemas de IA reflejen los valores de nuestra nación y promuevan la equidad».
Además, la administración lanzó una Solicitud de Información (RFI) para su Estrategia Nacional de Inteligencia Artificial (IA).
Las preguntas de la RFI también muestran el interés del equipo de Biden por la equidad en la IA.
Una de las preguntas es: «¿Qué consideraciones o medidas adicionales son necesarias para garantizar que la IA mitiga la discriminación algorítmica, fomenta la igualdad de oportunidades y promueve resultados positivos para todos?».
«¿Cómo podrían actualizarse las leyes y políticas existentes para tener en cuenta los impactos no equitativos de los sistemas de IA?, dice otra pregunta:
Los interesados pueden presentar sus comentarios hasta las 17.00 horas (EST) del 7 de julio de 2023 en regulations.gov.
Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.