Anticipar elecciones y oportunidades, el objetivo de la inteligencia artificial

Por NIR EISIKOVITS Y DAN FELDMAN
14 de marzo de 2021 12:51 AM Actualizado: 14 de marzo de 2021 12:51 AM

La historia del uso de la tecnología por parte de los humanos siempre ha sido una historia de coevolución. Filósofos desde Rousseau hasta Heidegger y Carl Schmitt argumentaron que la tecnología nunca es una herramienta neutral para lograr fines humanos.

Las innovaciones tecnológicas, desde las más rudimentarias hasta las más sofisticadas, remodelan a las personas a medida que utilizan estas innovaciones para controlar su entorno. La inteligencia artificial es una herramienta nueva y poderosa, y también está alterando a la humanidad.

La escritura y, más tarde, la imprenta hicieron posible registrar cuidadosamente la historia y difundir fácilmente el conocimiento, pero eliminaron tradiciones centenarias de narración oral. Las ubicuas cámaras digitales y telefónicas cambiaron la forma en que las personas experimentan y perciben los eventos. Los sistemas GPS ampliamente disponibles han significado que los conductores rara vez se pierden, pero depender de ellos también atrofió su capacidad nativa para orientarse.

La IA no es diferente. Si bien el término IA evoca la preocupación por los robots asesinos, el desempleo o un estado de vigilancia masiva, hay otras implicaciones más profundas. A medida que la IA va dando forma a la experiencia humana, ¿cómo cambia esto lo que significa ser humano? El problema estriba en la capacidad de las personas para tomar decisiones, especialmente las que tienen implicaciones morales.

¿Apoderarse de nuestras vidas?

La IA se está utilizando para propósitos amplios y de rápida expansión. Se utiliza para predecir qué programas de televisión o películas querrán ver las personas en  función de sus preferencias pasadas y para tomar decisiones sobre quién puede pedir dinero prestado en función del rendimiento pasado y otros indicadores de la probabilidad de reembolso. Se utiliza para  detectar transacciones comerciales fraudulentas e  identificar tumores malignos. Se utiliza para decisiones de contratación y despido en grandes cadenas de tiendas  y  distritos escolares públicos. Y se está utilizando en la aplicación de la ley, desde la  evaluación de las posibilidades de reincidencia hasta la asignación de la fuerza policial y la identificación facial de presuntos delincuentes.

Muchas de estas aplicaciones presentan riesgos relativamente obvios. Si los algoritmos utilizados para la aprobación de préstamos, el reconocimiento facial y la contratación se entrenan con datos sesgados, construyendo así modelos sesgados, tienden a perpetuar los prejuicios y las desigualdades existentes. Pero los investigadores creen que los datos depurados y el modelado más riguroso reducirían y potencialmente eliminarían el sesgo algorítmico. Incluso es posible que la IA pueda hacer predicciones más justas y menos sesgadas que las realizadas por humanos.

Donde el sesgo algorítmico es un problema técnico que puede resolverse, al menos en teoría, la cuestión de cómo la IA altera las habilidades que definen a los seres humanos es más fundamental. Hemos estado estudiando esta pregunta durante los últimos años como parte del proyecto de Inteligencia y Experiencia Artificial en el Centro de Ética Aplicada de UMass Boston.

Mientras que el sesgo algorítmico es una cuestión técnica que puede resolverse, al menos en teoría, la cuestión de cómo la IA altera las capacidades que definen a los seres humanos es más fundamental. Hemos estado estudiando esta cuestión durante los últimos años como parte del proyecto Inteligencia Artificial y Experiencia del Centro de Ética Aplicada de UMass Boston.

Perder la capacidad de elegir

Aristóteles argumentó que la capacidad de emitir juicios prácticos depende de hacerlos con regularidad, del hábito y la práctica. Consideramos que la aparición de máquinas como jueces sustitutos en diversos contextos laborales es una amenaza potencial para que las personas aprendan a ejercer su propio juicio de forma eficaz.

En el lugar de trabajo, los directivos toman habitualmente decisiones sobre a quién contratar o despedir, qué préstamo aprobar y a dónde enviar a los agentes de policía, por nombrar algunas. Se trata de áreas en las que la prescripción algorítmica está sustituyendo al juicio humano, por lo que las personas que podrían haber tenido la oportunidad de desarrollar un juicio práctico en estas áreas ya no lo harán.

Los motores de recomendación, que son intermediarios cada vez más frecuentes en el consumo cultural de la gente, pueden servir para restringir la elección y minimizar la serendipia. Al presentar a los consumidores opciones clasificadas algorítmicamente sobre qué ver, leer, transmitir y visitar a continuación, las empresas están sustituyendo el gusto humano por el gusto de la máquina. En cierto sentido, esto es útil. Al fin y al cabo, las máquinas pueden estudiar una gama de opciones más amplia de la que cualquier persona puede tener tiempo o energía para hacer por sí misma.

Al mismo tiempo, sin embargo, esta selección está optimizando lo que la gente probablemente prefiere basándose en lo que ha preferido en el pasado. Creemos que existe el riesgo de que las opciones de las personas se vean limitadas por su pasado de una forma nueva e imprevista, una generalización de la «cámara de resonancia» que la gente ya está viendo en las redes sociales.

La llegada de potentes tecnologías predictivas parece que también afectará a las instituciones políticas básicas. La idea de los derechos humanos, por ejemplo, se basa en la idea de que los seres humanos son agentes majestuosos, imprevisibles y autónomos cuyas libertades deben ser garantizadas por el Estado. Si la humanidad,o al menos su toma de decisiones, se vuelve más predecible, ¿seguirán las instituciones políticas protegiendo los derechos humanos de la misma manera?

Totalmente predecible

A medida que mejoran los algoritmos de aprendizaje automático, una forma común de IA «estrecha» o «débil», y a medida que se entrenan con conjuntos de datos más extensos, es probable que partes más importantes de la vida cotidiana se vuelvan completamente predecibles. Las predicciones serán cada vez mejores y, en última instancia, harán que las experiencias comunes sean más eficientes y agradables.

Los algoritmos, pronto —si no lo han hecho ya— podrían tener una mejor idea sobre qué programa le gustaría ver a continuación y qué candidato de trabajo debería contratar que usted. Un día, los humanos pueden incluso encontrar una forma en que las máquinas puedan tomar estas decisiones sin algunos de los prejuicios que los humanos suelen mostrar.

Pero en la medida en que la imprevisibilidad es parte de cómo las personas se entienden a sí mismas y parte de lo que les gusta de sí mismas, la humanidad está en proceso de perder algo significativo. A medida que se vuelven más y más predecibles, las criaturas que habitan el mundo cada vez más mediado por la IA se volverán cada vez menos como nosotros.

Nir Eisikovits es profesor asociado de filosofía y director del centro de ética aplicada de la Universidad de Massachusetts – Boston, y  Dan Feldman  es investigador principal del centro de ética aplicada de la Universidad de Massachusetts – Boston. Este artículo se publicó por primera vez en The Conversation.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.