Google selecciona los datos para la inteligencia artificial, según denunciante

La IA sesgada es alimentada con datos de forma selectiva en aras de la "imparcialidad"

Por Ella Kietlinska y Joshua Philipp
25 de enero de 2023 1:53 PM Actualizado: 25 de enero de 2023 1:53 PM

Según un denunciante de Google, al seleccionar los datos que la inteligencia artificial (IA) utiliza para aprender, las empresas tecnológicas como Google pueden sesgar la IA para censurar la información que circula por Internet.

Cuando Zach Vorhies trabajaba para Google, le preocupaba el modo en que la empresa seleccionaba los datos para generar una IA sesgada con valores de justicia social o de izquierda que se adhieren a determinadas narrativas.

«La inteligencia artificial es un producto de los datos que se introducen en ella», dijo Vorhies, exempleado de Google que ahora es un denunciante, en el programa «Crossroads» de EpochTV el 5 de enero.

«Si quieres crear una IA que tenga valores de justicia social… solo vas a alimentarla con información que confirme ese sesgo. Por tanto, al sesgar la información, puedes sesgar la IA», explicó Vorhies.

«No puedes tener una IA que recoja toda la amplitud de la información y luego se vuelva tendenciosa, a pesar de que la información sea imparcial».

La gente pasa frente a la sede de Tencent en Shenzhen, provincia de Guangdong, en el sur de China, el 26 de mayo de 2021 (NOEL CELIS/AFP a través de Getty Images).

Las conversaciones de la IA la meten en problemas

En 2017, Tencent, una gran empresa tecnológica china, desactivó un servicio de IA después de que empezara a criticar al Partido Comunista Chino.

Tencent, fabricante de videojuegos y propietaria de WeChat, ofrecía a sus usuarios un servicio gratuito que les permitía chatear con un personaje de IA. Los chatbots, Little Bing y Baby Q, podían hablar de una gran variedad de temas y se hacían más inteligentes a medida que interactuaban con los usuarios, según un reporte de la cadena pública japonesa NHK World.

Cuando un usuario publicó un mensaje en el que decía: «Viva el Partido Comunista», el chatbot de Tencent respondió: «¿Estás seguro de que quieres vitorear a un [sistema político] tan corrupto e incompetente?», según el reporte.

Cuando el usuario preguntó al programa de IA sobre el lema del líder chino Xi Jinping «Sueño chino», la IA respondió que el sueño significaba «emigrar a Estados Unidos».

Logotipo da Microsoft com um Nokia 1020 (EFE / Rainer Jensen / File)

Otro ejemplo de IA que mostró un comportamiento inesperado fue Tay, un chatbot desarrollado por Microsoft para jóvenes de 18 a 24 años en Estados Unidos con fines de entretenimiento.

Tay, lanzado en 2016, debía aprender de los usuarios con los que conversaba, pero después de que los trolls de Twitter aprovecharan su capacidad de aprendizaje, Tay empezó a soltar una serie de comentarios ofensivos y obscenos. Microsoft desactivó el chatbot después de solo 16 horas.

Vorhies cree que el incidente de Tay fue una operación de inteligencia destinada a fomentar la investigación sobre la imparcialidad del aprendizaje automático en el mundo académico y en Google.

Qué es la imparcialidad en el aprendizaje automático

La imparcialidad en el aprendizaje automático, tal y como lo aplica Google, es un sistema que utiliza inteligencia artificial para censurar la información procesada por los principales productos de la compañía, como Google Search, Google News y YouTube, explica Vorhies.

Clasifica todos los datos que se encuentran en la plataforma para determinar qué información debe amplificarse y cuál debe suprimirse, explicó Vorhies.

La imparcialidad en el aprendizaje automático hace que lo que se puede encontrar en Internet evolucione constantemente, por lo que los resultados mostrados en respuesta a una consulta pueden diferir de los devueltos para la misma consulta en el pasado, dijo.

Si un usuario busca temas neutros —por ejemplo, repostería— el sistema le ofrecerá más información sobre repostería, explica Vorhies. Sin embargo, si alguien busca temas incluidos en una lista negra o contenidos políticamente sensibles, el sistema «intentará no ofrecerle [al usuario] más contenidos de ese tipo» y, en su lugar, le presentará contenidos alternativos.

Utilizando la justicia del aprendizaje automático, una empresa tecnológica «puede desplazar esa ventana de Overton hacia la izquierda», dijo Vorhies, «entonces la gente como nosotros está esencialmente programada por ella». La ventana de Overton se refiere a una gama de políticas consideradas aceptables en el discurso público en un momento dado.

Algunos expertos en aprendizaje automático creen que los datos recogidos del mundo real ya incluyen sesgos que existen en la sociedad. Por tanto, los sistemas que los utilizan tal cual podrían ser injustos.

INTERNET GOOGLE PROBLEMS ILLUSTRATIONS
Imagen ilustrativa muestra un teléfono móvil y un ordenador portátil con la página web de Google, el 14 de diciembre de 2020. (Laurie Dieffembacq/Belga Mag/AFP vía Getty Images)

La precisión puede ser problemática

Si la IA utiliza «un modelo de aprendizaje automático preciso» para aprender de los datos existentes recogidos del mundo real, «puede aprender o incluso amplificar sesgos problemáticos preexistentes en los datos basados en la raza, el género, la religión u otras características», dice Google en su sitio web en la nube «ai.google», en el apartado «Prácticas responsables de IA».

«El riesgo es que cualquier injusticia en tales sistemas pueda tener también un impacto a gran escala. Por lo tanto, a medida que aumenta el impacto de la IA en todos los sectores y sociedades, es fundamental trabajar para conseguir sistemas que sean justos e inclusivos para todos», dice el sitio.

Para ilustrar cómo debe evaluarse el aprendizaje automático desde la perspectiva de la equidad, Google pone el ejemplo de una aplicación que ayuda a los niños a seleccionar libros adecuados a su edad en una biblioteca que tiene libros tanto para adultos como para niños.

Si la aplicación selecciona un libro de adultos para que lo lean los niños, puede exponerlos a contenidos inadecuados para su edad y molestar a sus padres. Sin embargo, según la guía de imparcialidad en el aprendizaje automático inclusivo de la empresa, marcar como inapropiados los libros infantiles que contienen temas LGBT también es «problemático».

El objetivo de la imparcialidad en el aprendizaje automático es «comprender y prevenir el trato injusto o prejuicioso de las personas en relación con la raza, los ingresos, la orientación sexual, la religión, el género y otras características históricamente asociadas con la discriminación y la marginación, cuando y donde se manifiestan en los sistemas algorítmicos o en la toma de decisiones asistida por algoritmos», dice Google en su guía de aprendizaje automático inclusivo.

Sara Robinson, ingeniera de relaciones con desarrolladores de Google, abordó el tema en un artículo publicado en el sitio web de Google sobre la nube. Robinson llamó imparcialidad en el aprendizaje automático al proceso de comprender el sesgo introducido por los datos que alimentan la IA, y garantizar que la IA «proporcione predicciones imparciales en todos los grupos demográficos».

«Mientras que la precisión es una métrica para evaluar la precisión de un modelo de aprendizaje automático, la imparcialidad nos da una manera de entender las implicaciones prácticas de la implementación del modelo en una situación del mundo real», dijo Robinson.

Cómo funciona la censura de la IA

Vorhies, exingeniero jefe de Google y YouTube, afirma: «Censurar es súper caro. Literalmente, tienes que revisar toda la información que tienes y conservarla».

Según Vorhies, si el Buró Federal de Investigaciones (FBI, por sus siglas en inglés) señala una cuenta en una red social, la empresa la incluye en su «lista negra», que luego pasa a la IA. Las palabras clave son importantes porque «a la IA le gusta tomar decisiones cuando tiene etiquetas en las cosas».

Etiquetar grupos de datos en categorías facilita el aprendizaje automático en la IA. Por ejemplo, la IA de los coches autoconducidos utiliza el etiquetado para distinguir entre una persona, la calle, un coche o el cielo. Etiqueta las características clave de esos objetos y busca similitudes entre ellos. El etiquetado puede realizarse manualmente o con ayuda de software.

Vorhies explica que la IA se encarga de suprimir a una persona en las redes sociales basándose en las etiquetas de datos seleccionadas por el personal de la empresa. La IA decide entonces si se permite que los posteos de la persona sigan siendo tendencia o si se suprimirán.

Vorhies trabajó en YouTube de 2016 a 2019, y dijo que la compañía aplicaba prácticas similares.

YouTube, una subsidiaria de Google, tenía algo así como un «tablero de clasificaciones que estaban siendo generadas por su imparcialidad en el aprendizaje automático», dijo el denunciante. La IA sabía, basándose en la historia y el contenido actual, cómo etiquetar a una persona, por ejemplo, como un presentador de un programa de entrevistas de derecha, explicó.

«Entonces alguien sentado detrás —no sé quién era— se encargaba de los mandos de lo que se permitía amplificar, basándose en [sus] intereses personales».

Guerra psicológica

El motor de búsqueda de Google considera que los principales medios de comunicación tienen autoridad y potencia el contenido en consecuencia, dijo Vorhies. «Estas organizaciones de izquierda de la corriente principal se clasifican dentro de Google como las que tienen mayor valor de autoridad».

Por ejemplo, si alguien busca información sobre unas elecciones locales, «los cinco primeros enlaces [en los resultados de búsqueda] van a ser lo que los principales medios de comunicación tienen que decir al respecto», dijo Vorhies. «Así pueden redefinir la realidad».

Si Wikipedia cambia su punto de vista sobre algo y empieza a considerar este asunto como una «teoría conspirativa y no real», la gente estará confusa sobre qué pensar al respecto. La mayoría no sabe que existe una guerra psicológica y una operación de influencia que apunta directamente a sus mentes, dijo Vorhies.

The Epoch Times se puso en contacto con Google para pedirle comentarios.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.