OpenAI dijo el viernes que ChatGPT denegó más de 250,000 solicitudes para generar imágenes de los candidatos presidenciales de Estados Unidos de cara a las elecciones generales del 5 de noviembre.
El chatbot de inteligencia artificial (IA) bloqueó solicitudes para generar imágenes del expresidente Donald Trump, la vicepresidenta Kamala Harris, el presidente Joe Biden, el gobernador de Minnesota Tim Walz y el senador JD Vance (R-Ohio) en el mes previo a la jornada electoral, dijo OpenAI.
«Nosotros aplicamos medidas de seguridad a ChatGPT para rechazar las solicitudes de generar imágenes de personas reales, incluidos los políticos», dijo la compañía en un blogpost el 8 de noviembre.
«Estas medidas de seguridad son especialmente importantes en un contexto electoral y son una parte clave de nuestros esfuerzos más amplios para evitar que nuestras herramientas se utilicen con fines engañosos o perjudiciales», añadió OpenAI.
ChatGPT también dirigió las preguntas sobre el voto en Estados Unidos a CanIVote.org como parte de sus medidas de seguridad durante la temporada electoral de este año, según el blogpost.
OpenAI afirmó que se había centrado en identificar y desbaratar los intentos de utilizar sus modelos para generar contenidos destinados a operaciones de influencia encubiertas dirigidas a las elecciones mundiales de este año.
La compañía indicó que no había pruebas de operaciones encubiertas que pretendieran influir en las elecciones estadounidenses recibiendo participación viral o construyendo audiencias sostenidas mediante el uso de sus modelos.
En su informe de octubre, OpenAI declaró que desbarató más de 20 operaciones y redes engañosas en todo el mundo que intentaron usar sus modelos para actividades como depuración de malware, redacción de artículos para sitios web y generación de contenido publicado por personas falsas en cuentas de redes sociales.
La empresa declaró que OpenAI había desbaratado los esfuerzos por crear contenidos en las redes sociales sobre las elecciones en Estados Unidos, Ruanda, India y la Unión Europea, pero que no había habido indicios de que estas redes fueran capaces de atraer una participación viral o crear una audiencia sostenida utilizando sus herramientas.
«Los autores de las amenazas siguen evolucionando y experimentando con nuestros modelos, pero no hemos visto indicios de que ello se traduzca en avances significativos en su capacidad para crear programas maliciosos sustancialmente nuevos o crear audiencias virales», indicó el informe.
A principios de este año, un grupo de 20 grandes empresas tecnológicas -incluidas OpenAI, Google y Meta- firmaron un pacto en el que afirmaban su compromiso de impedir el uso engañoso de la inteligencia artificial en las elecciones de este año en todo el mundo.
El pacto se centró específicamente en el audio, el vídeo y las imágenes generados por IA y diseñados para engañar a los votantes y manipular los procesos electorales. Según un comunicado de prensa, las empresas se comprometieron a «trabajar en colaboración» a partir de los esfuerzos ya realizados en este ámbito.
Las empresas participantes acordaron ocho acciones, entre ellas desarrollar tecnología para detectar y abordar las falsificaciones profundas, mitigar los riesgos y fomentar la resiliencia intersectorial, y ofrecer transparencia al público en relación con sus esfuerzos.
Con la contribución de Caden Pearson
Únase a nuestro canal de Telegram para recibir las últimas
noticias al instante haciendo click aquí
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.