Cuando la ciencia se vuelve sesgada

Por Bob Zeidman
10 de mayo de 2020 12:38 AM Actualizado: 10 de mayo de 2020 11:16 AM

Opinión

Hay una preocupante tendencia en la investigación estos días, donde los tal llamados científicos de la computación inyectan sus creencias personales en la investigación. Ellos hacen esto «corrigiendo» la matemática para alcanzar el resultado que quieren.

Ellos lo llaman «unbiasing« (desparcializar), pero es en realidad lo opuesto. Este trabajo afecta a cada persona en casi cada aspecto de la vida. Ustede necesita estar consciente de este problema y debería preocuparle cómo está siendo manipulada su vida sin que lo sepa.

Un algoritmo es una serie de pasos para resolver un problema. Puede ser tan simple como la receta de carne asada de su abuela—una descripción paso a paso de marinar, cortar, mezclar, asar y servir, escrita en una tarjeta manchada de salsa. Estos días, un algoritmo se refiere típicamente a los pasos matemáticos que realiza una computadora según le ordena un programa de computación.

Cada día, tomamos contacto con estos algoritmos de computación que controlan no solo las apps en su smartphone, sino también semáforos, ascensores, termostatos, y más importante, la información que vemos en los motores de búsqueda y redes sociales.

Estos algoritmos se usan para optimizar su vida y darle personalmente información relevante, pero también para entenderlo lo más posible: registran lo que le gusta y lo que no le gusta.

Amazon usa sus algoritmos para mostrarle productos que realmente quisiera comprar en vez de productos que no necesita. Netflix usa sus algoritmos para recomendar películas que probablemente disfrute. Las compañías de seguro usan sus algoritmos para cuantificar su riesgo y determinar los costos premium. Las compañías de salud podrían pronto usar sus algoritmos para determinar los tratamientos y prescripción correctas para usted.

Y cuando busca información en Google, sus algoritmos producen resultados que le dan la información más relevante para guiarlo en sus decisiones. O al menos así debería ser.

Sesgo de algoritmo

El tema de investigación más nuevo en ciencias de la computación es llamado «sesgo de algoritmo». Los científicos de la computación están estudiando sesgos de algoritmo y cómo combatirlos. Yo propongo un nuevo término para estos investigadores: «proclivistas» del latín “proclivitas”, que significa sesgo.

Estos proclivistas de la computación estudian sesgos en algoritmos en la escuela y luego salen a la industria para dirigir departamentos en grandes empresas, dirigir equipos de ingenieros para descubrir los tal llamados sesgos y luego «corregirlos».

Entre estos proclivistas están Tulsee Doshi, líder de producto para el esfuerzo en imparcialidad en aprendizaje automático en Google, y Joy Buolamwini, una investigadora del MIT que fundó la Liga de Justicia Algorítmica.

Combatir el sesgo suena como una cosa buena ¿no? Excepto, tal como el Doble pensar en la novela distópica de George Orwell «1984», cuando los proclivistas de la computación hablan sobre quitar el sesgo de los algoritmos, lo que realmente quieren decir es insertar el sesgo en los algoritmos para producir resultados que ellos creen «justos» según sus propias nociones de justicia.

Cuando usted busca en Google un término particular, podría pensar que está obteniendo los resultados más relevantes, pero como admite abiertamente Google, en realidad está obteniendo los resultados que Google quiere que obtenga. Ya sea el sesgo que Google haya insertado sea político, religioso, cultural o en cualquier otra forma imprecisa, Google está dirigiéndolo a donde él quiere que vayamos, fingiendo que nos está dando resultados imparciales.

Recientemente, Doshi dio una charla en la Asociación para Maquinaria de Computación titulada “Fairness in Machine Learning” («Imparcialidad en aprendizaje automático»). Ella comenzó hablando sobre cómo Google da un puntaje a varias búsquedas para determinar si son «tóxicas, neutrales, o no tóxicas». Google determina la toxicidad examinando el contexto de donde se encuentran los términos. Si esas páginas incluyen palabras y oraciones malas y de odio, entonces la palabra es catalogada como «tóxica». Ella luego procede a dar ejemplos de términos tóxicos y dice: «No queremos ver esto (…) No queremos que esto sea verdad».

Pero la ciencia nunca es sobre lo que queremos; es sobre lo que descubrimos, nos guste o no. Los proclivistas de la computación piensan que la ciencia es sobre cambiar resultados para hacerlos «justos» según lo que alguna gente decide arbitrariamente qué es justo.

En un ejemplo concreto, años atrás, cuando buscaba el término «judío» en Google, los resultados más altos eran enlaces a sitios web antisemitas. Muchos grupos judíos, incluyendo la Liga Anti Difamación, de la cual yo era miembro de la junta, se quejó a Google presionándolos para cambiar su algoritmo y eliminar estos resultados.

¿Eran sesgados los resultados originales? Ciertamente los resultados borrados eran sesgados ya que Google cambió su algoritmo específicamente para excluir estas referencias antisemitas para evitar ofender a la gente. Deberíamos preocuparnos de los resultados antisemitas, pero aún más preocuparnos sobre los resultados borrados, porque si hay un problema de antisemitismo en Estados Unidos o en el mundo, necesitamos saberlo. Cambiar los resultados de búsqueda solo escondió el problema. Hizo mucho más difícil rastrear grupos antisemitas. No hizo nada para cambiar al mundo en un lugar mejor, solo barrió el problema bajo la alfombra.

Sesgo de género

En su charla, Doshi hizo referencia a una publicación de Buolamwini, una investigadora mujer afroamericana, llamada “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification” (“Estudios de Género: Disparidades en precisión Interseccional en la clasificación de género comercial”). Hay también una presentación en su sitio web Gender Shades.

La génesis de su publicación, según Buolamwini, fue cuando ella probó un programa de reconocimiento facial con una foto de su propia cara y no pudo determinar el género. Esto parece particularmente confuso porque, en su publicación, Buolamwini declara que hay muchos géneros, no solo los binarios masculino y femenino, así que no queda claro qué criterio para determinar el género debería usarse. Pero cual sea la categoría de género «correcta», ella afirmaba que la gente de piel oscura, particularmente las mujeres, tenían más probabilidad de ser clasificadas incorrectamente debido al sesgo del algoritmo.

Sin embargo, es una explicación razonable que las fotos de gente de piel oscura sean más difíciles de reconocer debido al simple hecho de que las fotografías tienen niveles limitados del contraste que pueden mostrar, en comparación con el ojo humano. También las caras de gente con piel clara muestran más sombras que marcan contornos y revelan detalles mientras que las caras de piel oscura no. Esto es algo que podría ser probado objetivamente, pero no lo fue. Quizás que el algoritmo no pueda categorizar ciertas caras no sea sesgo, sino una dificultad natural o una falla en el algoritmo.

Métricas de imparcialidad

Doshi continuó describiendo «métricas de imparcialidad» que, según ella, determinan si un algoritmo es justo. Arvind Narayanan, un profesor de ciencias de la computación de Princeton, ha identificado 21 definiciones de imparcialidad con respecto a algoritmos. Doshi admitió que Google en realidad tiene más de 21 definiciones. Ella también admitió que «corregir» un algoritmo para una definición de imparcialidad en realidad la hace peor con respecto a otras definiciones de imparcialidad, pero no le dio importancia porque Google tiene que «ser comprensivo sobre cuáles definiciones escogemos y qué significan».

Hay un excelente informe sobre las contradicciones innatas de «sesgo de algoritmos» titulado “Inherent Trade-Offs in the Fair Determination of Risk Scores” («Compensaciones inherentes en los puntajes de riesgo en la determinación de la imparcialidad»), de Jon Kleinberg, Sendhil Mullainathan y Manish Raghavan de Cornell y Harvard. La conclusión de este informe es que no hay «corrección» a ningún algoritmo que pueda satisfacer todas las tres condiciones de «imparcialidad» más comunes, mucho menos los 21 o más criterios.

En otras palabras, al hacer los algoritmos más «justos» según un criterio, lo harán mas «injustos» según el otro criterio.

La prueba matemática no consideró qué clase de algoritmo se usaba, qué criterio era usado, cómo se dividía la gente por grupos, o qué clase de comportamiento se predecían. Esta fue una hermosa prueba basada en pura matemática. A menos que creas que hay una falla en la matemática misma, o que la matemática en sí misma es de algún modo sesgada (y alguna gente en realidad sí lo piensa, incluido el distrito de escuelas de Seattle), entonces la prueba es indisputable.

Mientras escribo esto, se ha mostrado que el virus COVID-19 afecta a afroamericanos a tasas mayores que la gente de otras razas. ¿Es sesgada la COVID-19? ¿Deberíamos ajustar las estadísticas para «corregir» su efecto? Por supuesto que no. Esta tal llamada «desparcialización» en realidad impide que los científicos reales encuentren relaciones subyacentes que podrían conducir a un mejor entendimiento de cómo funciona el mundo.

En el hipotético caso del sesgo de la COVID-19, «corregir» el «sesgo» sería obstaculizar nuestra capacidad de entender la enfermedad y en última instancia encontrar una cura.

En relación a los motores de búsqueda como Google, haciendo «justos» los resultados de búsquedas significa que no solo nos enteramos de las cosas incorrectas, sino que también nos enteramos de esas cosas que un pequeño grupo de gente de negocios, activistas y proclivistas de la computación quieren que sepamos. Esta nueva forma de investigación está equivocada y es peligrosa.

Bob Zeidman estudió física e ingeniería eléctrica en Cornell y Standford, y es cineasta en el De Anza College. Es inventor de la famosa Silicon Valley Napkin y fundador de varias empresas de alta tecnología en Silicon Valley incluyendo Zeidman Consulting y Software Analysis and Forensic Engineering. Él también escribe novelas; su última es la sátira política “Good Intentions”.

Las opiniones expresadas en este artículo son la opinión del autor y no reflejan necesariamente la opinión de The Epoch Times.


Apoye nuestro periodismo independiente donando un «café» para el equipo.


¿Sabía?

Google estaría intentando evitar la reelección de Trump

Las opiniones expresadas en este artículo son propias del autor y no necesariamente reflejan las opiniones de The Epoch Times

Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.