Máquinas inteligentes que replican la forma en que los humanos perciben y reaccionan, la inteligencia artificial (IA) es un conjunto de innovaciones tecnológicas que hay que aprender a limitar. Cada vez más presente en los trabajos cotidianos, parecería que la IA llegó para quedarse pero ¿podría suplir a los humanos?
Primero lo primero, ¿qué es la IA?
De acuerdo a las definiciones estandarizadas, se trata de una tecnología de la información y las comunicaciones que utiliza algoritmos y modelos matemáticos para procesar grandes cantidades de datos sobre los que, además, va a tomar decisiones.
Es la posibilidad «de las computadoras de poder empezar a funcionar con habilidades más humanas», explicó Mónica Talán, mexicana residente en EE. UU., fundadora de CryptoConexión, en una entrevista con The Epoch Times México. Es decir, hay que comprender a las IA sin disociarlas de las capacidades propias del ser humano.
Tenemos que entender, continuó Talán, que este proceso implica «dar información a las computadoras —en la parte técnica— y que puedan de ahí [empezar] a formar contenido y hasta [tomar] decisiones, aprendiendo de lo que ya se les ha dado anteriormente». Algo así como una réplica del funcionamiento mental cognitivo.
El académico mexicano Raúl Trejo Delarbre explicó hace dos meses, durante una ponencia sobre cultura digital en la Universidad Nacional Autónoma de México (UNAM), que si bien la IA nos «remite al relato de la ciencia ficción», desde hace tiempo nos vinculamos con ella a través de asistentes domésticos, como Alexa; en el teléfono (Siri); las sugerencias de Netflix; los algoritmos en Facebook o el servicio de atención al cliente de los bancos.
Todas estas son formas muy elementales de IA que usamos y con las cuales convivimos, «sin reparar en que se trata justamente de expresiones de sistemas que procesan información y que generan reacciones o respuestas programadas», detalló Trejo Delarbre, autor de Inteligencia Artificial. Conversaciones con Chat GPT.
La IA puede tomar decisiones, puede aprender, tener reacciones, puede interactuar, sí, pero el ser humano no tiene comparación. La IA solo es un pequeño reflejo de la humanidad, no podría ser alrevés.
«Al nivel de un humano, todavía no se ha llegado y no se sabe cuándo se va a llegar. Ahorita se podría decir que [la IA] tiene el cerebro de una ardilla», comentó Talán. Esta interacción de la que es capaz la IA, por ejemplo, tiene sus límites. «El otro día me trató de hacer un chiste», recordó la fundadora de CryptoConexión, pero el chiste era «muy malo».
Precisamente en ese sentido, el Dr. Trejo Delarbre, le consultó al ChatGPT por un chiste sobre la IA, recibiendo la siguiente respuesta:
-«¿Por qué la computadora dijo que estaba fría?»
-«¡Porque tenía demasiadas ventanas abiertas y no suficientes bytes para calentarse!».
¿Gracioso? Es probable que la mayoría coincida en que se trata de «un humorista terriblemente aburrido», como lo describió este investigador de la UNAM, desencantado ante la falta de gracia. «Como humorista no va a ser carrera», bromeó Trejo Delarbre.
La cuestión ética
La IA «llegó para quedarse», recalcó el investigador de la UNAM y consideró que es un tema que hay que discutir en los centros académicos y darle «mayor prioridad», que «no es una ocurrencia temporal, no es algo pasajero» y, lo más importante, hay que empezar a «aplicar la ética» para acotar a la IA y establecer marcos claros que las regulen.
En ese sentido, México ya está contemplando generar esa normativa y el Congreso tiene pendiente el abordaje de la Ley de Regulación Ética de la Inteligencia Artificial y la Robótica, presentada por el diputado Ignacio Loyola Vera del PAN, el pasado 24 de mayo.
«Me considero una persona muy interesada por la tecnología», explicó Loyola Vera a The Epoch Times México, «siempre me ha motivado y me ha llamado la atención. Aclaro que no soy un experto, sin embargo tengo tres hijos varones que trabajan en el sector y platicando con ellos, vimos la necesidad de empezar a legislar», continuó el diputado.
«En los tiempos que vivimos ahora, se deben poner ciertos límites para poder hacer realidad que el uso de estas nuevas tecnologías sea visto como una oportunidad, en lugar de una amenaza», explayó.
El «deepfake», por ejemplo, es una nueva modalidad fraudulenta que usa IA. Y puede incurrir en una forma de estafa que altera la realidad de un video, imagen o audio, manipulando su mensaje con fines engañosos.
Tal es el caso de lo que recientemente ocurrió con el periodista Javier Alatorre, en el que estafadores utilizaron su imagen para vender unas cápsulas que supuestamente curaban diabetes. «¡Es un fraude! No te dejes engañar. Son unos bandidos que usan IA», denunció Alatorre en su cuenta de X.
La voz, que había sido manipulada por estas tecnologías, simulaba a la del conductor y anunciaba sobre las propiedades de este medicamento. Es decir, habían utilizado una imagen real tergiversando su voz.
«Si dejamos que estas herramientas no tengan siempre un acompañante humano sí puede haber riesgos», advirtió Talán. «Como toda tecnología es una gran oportunidad que puede traer muchos beneficios, pero igual también creo que tenemos que enfocarnos en la parte ética y responsable del uso de cualquier herramienta de tecnología», continuó, «por eso todos tenemos que entender qué es, cómo puede usarse, cómo [uno] puede beneficiarse y cuáles son los límites de esta herramienta».
El proyecto presentado por Loyola Vera pasó a la Comisión de Ciencia, Tecnología e Innovación y busca «regular y normar el uso de estas tecnologías con fines gubernamentales, económicos, comerciales, administrativos, comunicacionales y financieros, con apego a la ética y al derecho», según un comunicado de la Cámara de Diputados. Esta iniciativa todavía está pendiente en comisión y tiene prórroga para su tratamiento hasta abril de 2024.
¿Una herramienta de trabajo?
Estas interacciones directas con el consumidor, como ocurrió con Chat GPT —una IA conversacional—, han impulsado el crecimiento de este tipo de aplicaciones, facilitando la generación de contenidos y aumentando la productividad y la eficiencia, analizó Talán, cuyo emprendimiento se caracteriza por brindar material didáctico sobre estos aspectos.
«Hay mucha gente que tiene miedo [de usar las IA], hay mucha gente que dice ‘mejor no’, hay mucha gente que piensa que no les va a impactar en el trabajo», describió Talán de acuerdo a su experiencia. «Esas son algunas de las cosas que nosotros estamos tratando de demostrar que hay que aprenderlo, entenderlo, interactuar con esas herramientas porque sí van a afectar todos los trabajos», anticipó la fundadora de CryptoConexión.
La IA «puede contribuir a la transformación de los modelos de desarrollo en América Latina y el Caribe para hacerlos más productivos, inclusivos y sostenibles», según el primer Índice Latinoamericano de IA (ILIA), de la Comisión Económica para América Latina y el Caribe (CEPAL), presentado el pasado 11 de agosto.
De acuerdo a esta comisión regional de las Naciones Unidas (ONU), «para aprovechar sus oportunidades [de la IA] y minimizar sus potenciales amenazas, se requiere reflexión, visión estratégica, regulación y coordinación regional y multilateral».
El secretario Ejecutivo del organismo, José Manuel Salazar-Xirinachs, expresó que “debemos estar muy atentos a las cuestiones éticas respecto a su implementación y debemos profundizar sobre los retos relacionados con la privacidad de los datos, así como con los sesgos y discriminación en las decisiones basadas en algoritmos inteligentes”.
Este estudio reveló la situación de la IA en 12 países de la región. Con respecto a México en particular, se analizó la situación «en cuanto a investigación, infraestructura, talento y adopción de IA, destacando la importancia de fortalecer la gobernanza y regulación en el campo», con mención de «la progresiva influencia de China como país de colaboración científica».
Este último aspecto con China se refiere a las mediciones sobre la «fuga de talentos». Cuando el ILIA consideró la procedencia y destino de los autores que publican sobre la IA en México, destacó «la fuerte importancia de EE. UU.», especialmente en los primeros años de análisis (de 1990 a 1995). Otro país con «una importancia constante en el tiempo» fue España, «probablemente por las afinidades de lenguaje tanto para quienes llegan como para quienes se van», detalló el informe.
En contraste, China fue el «país que se destaca por su progresiva relevancia en el tiempo» y que en los últimos diez años «se posiciona como uno de los países más relevantes, superando a EE. UU.», siguió el ILIA.
Con respecto a la regulación, el documento del índice publicó que «México cuenta con regulaciones relacionadas para protección de datos, y está tramitando la actualización de ciberseguridad». Mientras que en lo concerniente a la gobernanza, el país «no cuenta con una estrategia vigente», especificó.
«Seamos conscientes, en algún punto se podría salir de las manos [el uso de la IA], para dañar o para reducir la planta laboral», manifestó el diputado Loyola Vera. La necesidad de su legislación en México es para «que este tipo de tecnologías no invada la intimidad de las personas, que no se utilice para espiar, para suplantar la imagen y voz de las personas, etc», consideró.
«Tenemos que ver cómo se puede controlar y que no nos controle así como también actualizarnos, es decir, ver que otras áreas de oportunidad tenemos con la IA», concluyó el diputado del PAN.
Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.