Google manipula los resultados de búsqueda sobre temas ‘controvertidos’, destaca un informe

Por Petr Svab - La Gran Época
28 de Enero de 2019 Actualizado: 28 de Enero de 2019

Google modifica los resultados de las búsquedas sobre temas que la empresa considera “polémicos”, revelaron dos fuentes de Google a Breitbart. A veces, la compañía incluso cambia los resultados manualmente, algo que su director general, Sundar Pichai, negó en un testimonio jurado.

Entre los temas destacados estaban el aborto, el activista de control de armas David Hogg, el accidente aéreo ruso del An-148 de febrero de 2018, el atentado terrorista de Estrasburgo de diciembre de 2018 e incluso la representante Maxine Waters (D-Calif.), según un extracto de la lista y las comunicaciones internas de Google obtenidas por Breitbart, el medio de comunicación de tendencia derechista que ha estado publicando noticias durante meses a partir de las filtraciones de Google.

En un hilo de discusión interna, un ingeniero de Google señaló un cambio en los resultados de la búsqueda en Youtube de la palabra clave “aborto” que se produjo poco después de que una periodista de izquierda de Slate preguntara a la empresa sobre los resultados. El ingeniero llamó al cambio una “pistola humeante”.

“La escritora de Slate dijo que se había quejado el viernes pasado y luego vio diferentes resultados de búsqueda antes de que YouTube le respondiera el lunes”, escribió el empleado. “Y he aquí, el registro de cambios fue enviado el viernes 14 de diciembre a las 3:17 PM.”

Youtube, una plataforma de vídeo en línea, está gestionada por Google.

La escritora de Slate reportó que los resultados de las búsquedas más importantes “fueron casi todos en contra del aborto”, como videos del Dr. Antony Levatino, un especialista en aborto que se convirtió en un defensor en contra del aborto; un video de una mujer describiendo su arrepentimiento después de un aborto; y un clip del comentarista conservador Ben Shapiro. Después de su investigación sobre Google, los resultados de la búsqueda comenzaron a incluir más contenido a favor del aborto.

Un empleado de Google señaló en una línea de discusión: “parece que estamos bastante ansiosos por adaptar nuestros resultados de búsqueda a la agenda social y política de los periodistas de izquierda”.

Intervenciones manuales

Aunque los productos de Google se basan principalmente en algoritmos para dar forma a los resultados de búsqueda, la empresa también realiza intervenciones manuales, según Daniel Aaronson, estratega principal del departamento de estrategia de productos de confianza y seguridad de Google Search.

“En casos extremos en los que necesitamos actuar rápidamente sobre algo que obviamente no está bien, el enfoque reactivo/manual es a veces necesario”, dijo en el hilo de discusión.

Este relato parece entrar en conflicto con el testimonio de Pichai del 11 de diciembre ante el Comité Judicial de la Cámara de Representantes:

“El año pasado, atendimos más de tres billones de búsquedas y, de hecho, cada día, el 15 por ciento de las búsquedas que realiza Google, nunca las habíamos visto antes”, dijo a los legisladores. “Esto funciona a escala y no intervenimos manualmente en ningún resultado de búsqueda en particular.”

A veces, Google también ajusta los algoritmos de búsqueda para dar preferencia a los resultados “utilizando señales que históricamente entendemos que son fuertes indicadores de calidad”, dijo Aaronson.

Reconoció que las decisiones sobre las intervenciones manuales o algorítmicas se toman siguiendo líneas que “son muy difíciles y pueden ser muy difusas”.

Cultura de la empresa

Aaronson dijo que “desde la perspectiva del usuario, hay temas que son propensos al contenido hiperbólico, información engañosa y contenido ofensivo”.

“Ahora, estas palabras son altamente subjetivas y nadie lo niega”, dijo. “Pero todos en general estamos de acuerdo en algo, en muchas culturas existen líneas sobre lo que está bien y lo que no está bien.”

La referencia de Aaronson a la cultura como árbitro de lo que está “bien” resuena con las acusaciones de parcialidad política que Google y otras empresas tecnológicas han enfrentado constantemente.

James Damore, antiguo ingeniero de software de Google, se quejó de la cultura uniformemente izquierdista de la empresa, que crea una “cámara de eco ideológico”.

Damore fue despedido después de escribir un memorándum en el que argumentaba que los hombres y las mujeres tienen, en promedio, habilidades y preferencias algo diferentes, y que Google debería tratar de satisfacer a aquellos que atraen a más empleadas mujeres.

Yonatan Zunger, un ex ingeniero de privacidad de Google, respondió diciendo en una entrada de un blog que la opinión de Damore era tan ofensiva que lo habría hecho escoltar fuera de las oficinas por los guardias de seguridad.

Google no respondió a una solicitud de comentarios, pero sí proporcionó uno a Breitbart: “Google nunca ha manipulado o modificado los resultados de búsqueda o el contenido de ninguno de sus productos para promover una ideología política en particular.”

‘El Buen Censor’

Google y otras plataformas en línea han prometido repetidamente apoyar la libertad de expresión, pero en la práctica, se han alejado de ella, según un documento de investigación interna de Google fechado en marzo de 2018 y filtrado posteriormente a Breitbart.

El documento, titulado “El Buen Censor”, argumenta que “las empresas de tecnología se han alejado gradualmente de la libertad de expresión sin mediación hacia la censura y la moderación”.

Aunque Google niega tener un sesgo político, puede ser propenso a censurar de manera sesgada sin quererlo.

Una mayoría (55 por ciento) de los estadounidenses que se identifican como demócratas están “a favor de que Estados Unidos se vuelva más políticamente correcto y les gusta que la gente sea más sensible en sus comentarios sobre los demás”, mientras que 76 por ciento de los republicanos están “en contra de que el país se vuelva más políticamente correcto y están molestos porque hay demasiadas cosas que la gente ya no puede decir”, según una encuesta del 28 de noviembre al 4 de diciembre del NPR/PBS/Marista (pdf).

Dado que las plataformas en línea suelen depender de los usuarios para denunciar las violaciones de contenido, el mecanismo parece favorecer a aquellos que quieren controlar el lenguaje.

TE RECOMENDAMOS