El diputado Ignacio Loyola Vera del PAN presentó este año una iniciativa de ley para crear una regulación ética sobre la IA, aventajando con seis meses a las recientes políticas globales sobre el tema. Según expertos, el tema de la IA debe ser considerada con cautela por sus posibles riesgos a nivel social, económico, militar y nacional.
El pasado 24 de mayo, el diputado por el distrito 3 de Querétaro, Loyola Vera (PAN) presentó la iniciativa de Ley de Regulación Ética de la IA y Robótica, que tiene como objetivo legislar «el uso de estas tecnologías con fines gubernamentales, económicos, comerciales, administrativos, comunicacionales y financieros, con apego a la ética y al derecho», de acuerdo al comunicado publicado en la Cámara de Diputados.
«En los tiempos que vivimos ahora, se deben poner ciertos límites para poder hacer realidad que el uso de estas nuevas tecnologías sea visto como una oportunidad, en lugar de una amenaza», explicó Loyola Vera a The Epoch Times México, cuando se le preguntó sobre el interés por impulsar esta ley. «Seamos conscientes», siguió, «en algún punto se podría salir de las manos, para dañar o para reducir la planta laboral».
Esta propuesta, presentada el 24 de mayo de 2023 y firmada también por los diputados del PAN, fue enviada a la Comisión de Ciencia, Tecnología e Innovación de la Cámara de Diputados y «busca establecer lineamientos de políticas públicas en México para la regulación ética» de los usos de la IA y la robótica dentro del país, según el boletín Nº 4474 de la Cámara de Diputados.
Su abordaje en la Cámara está pendiente y tiene prórroga hasta abril de 2024. «Por fortuna se han acercado académicos, alumnos, investigadores para ver de qué manera se puede ir enriqueciendo la iniciativa», detalló Loyola Vera.
Acerca de la ley
El proyecto legislativo tiene 19 artículos distribuídos en tres capítulos y propone crear normas que se basen en principios éticos para «el buen uso de la IA y la Robótica», que respeten «los derechos humanos, la paridad entre los géneros, sin discriminación alguna por raza, origen étnico, religión, clase social o posición económica».
Esta iniciativa comprende la creación de un Consejo Mexicano de Ética para la Inteligencia Artificial y la Robótica, como un organismo público, autónomo y descentralizado en sus decisiones.
El Consejo «tendrá que rendir un informe anual sobre los resultados de su trabajo de vigilancia y observancia de cumplimiento de la Ley en la materia», de acuerdo a los aspectos relevantes publicados en el Sistema de Información Legislativa (SIL).
La ley también prevé la generación de una Red Nacional de Estadística de Uso y Monitoreo de la Inteligencia Artificial y la Robótica y propone establecer que el Instituto Nacional de Estadística y Geografía (INEGI) sea el centro generador de información sobre el uso de la IA en el país.
Desafío global
El pasado 1º y el 2 de noviembre se llevó a cabo la Cumbre de Seguridad sobre IA a nivel global, en Bletchley Park, Inglaterra. Contó con la participación de compañías tecnológicas y representantes de 28 países, entre ellos Estados Unidos, Reino Unido, China, seis Estados miembros de la UE, Brasil, Nigeria, Israel y Arabía Saudí. México no asistió.
«Estamos en medio de una revolución tecnológica que alterará fundamentalmente la forma en que vivimos, trabajamos y nos relacionamos unos con otros», inició el documento de presentación de la cumbre.
En el encuentro, acordaron establecer mecanismos de regulación de la IA y medidas preventivas de los posibles daños que pueda causar. Entre esas iniciativas, estuvo la de crear un panel de fiscalización internacional y un Instituto de Seguridad para evaluar cada modelo de IA a fin de determinar posibles riesgos para la sociedad.
La era de la IA «ha comenzado y promete transformar aún más casi todos los aspectos de nuestra economía y sociedad, trayendo consigo enormes oportunidades, pero también riesgos que podrían amenazar la estabilidad global y socavar nuestros valores», siguió la presentación.
Posibles riesgos de la IA
¿Qué es la IA? «Es una tecnología que permite mediante la programación de algoritmos, que son modelos estadísticos y matemáticos, procesar un enorme volumen de información y, a partir de esa información, las máquinas pueden tomar decisiones», definió el académico peruano Miklos Luckas en una conferencia de este año, sobre su libro Neo Entes.
La IA es una «tecnología convergente», amplió Luckas, que converge, que se combina con otras en el proceso de desarrollo. La nanotecnología, la biotecnología, las industrias cognitivas y las tecnologías de la información son ejemplo de este tipo de teconologías.
Dentro de la IA, hay diferentes tecnologías. Por ejemplo, el caso de los drones automatizados o del reconocimiento facial. «En la China comunista se usa mucho», enfatizó Luckas, «para mantener un control directo sobre sus ciudadanos bajo el sistema de crédito económico y social».
En las grandes ciudades de ese país, siguió, «hay que moverse siempre con un celular porque el celular ha pasado a ser la tarjeta de identificación, la billetera. Absolutamente todo se hace a través del celular».
Este sistema de vigilancia y de puntaje social que usa en el régimen chino se basa en las IA, resaltó el académico peruano: «si uno pasa por un sitio y, por ejemplo, ha actuado mal o ha cometido un error o ha dicho algo en contra del Partido Comunista, ciertos sectores, van a ser restringidos para el acceso. ¿Y cómo van a impedirlo? A través de tecnologías como el reconocimiento facial».
El cuestionamiento de Luckas sobre la IA fue más allá al hipotetizar sobre la robótica y los avances que ya se han hecho: «Uno podría decir ‘nos están diciendo que estos robots van a ser fantásticos para ayudar a la gente, van a ser nanas, van a ayudar a los abuelitos que se sienten solos, van a abrir carreteras’. Sí, pero también podrían ser utilizadas como fuerzas represivas, donde vas reemplazando poco a poco a la policía y al ejército y vas poblándolo con robots».
En este sentido, Luckas advirtió sobre un «escenario distópico», una sociedad imaginaria bajo un poder totalitario o una ideología determinada, en la que las «fuerzas del orden» no sean los policías que hoy conocemos, sino que para su función de seguridad se utilicen robots o a un «enjambre de drones apuntando con pistolas de alta precisión», ante una eventual protesta civil. Un escenario distópico que «no es técnicamente imposible», advirtió.
Un hecho reciente es que China se ha propuesto producir en masa robots similares a los humanos, su proyección es a dos años. Se trata de un ambicioso plan que califica como “nuevo motor” de crecimiento y con el que espera situar a Beijing a la cabeza del sector, explica un artículo reciente de The Epoch Times.
Según las autoridades del régimen comunista, sus fines son para el desarrollo económico y se van a aplicar en entornos hostiles, en la industria manufacturera y en el sector servicios.
En esta línea Jimena Sofía Viveros Álvarez, abogada mexicana especialista en armas autónoma, afirmó que el tema de los robots y las armas ya no es algo de ciencia ficción, sino al contrario, un tema «más presente que futuro». Vivero Álvarez forma parte del Órgano Asesor de la ONU sobre la IA, que presentará un informe en el marco de la Cumbre del Futuro, en septiembre 2024, para elaborar un plan de implementación internacional.
«Lo que hemos visto en el último año es que es inminente y exponencial, y no podemos postergar ya esta conversación sobre la regulación internacional [de las armas en relación con la IA] porque ya nos está comiendo la tecnología», añadió la asesora legal a EFE.
En México, el diputado Loyola Vera detalló que «hace 15 días se llevó a cabo una Mesa de Trabajo con la Comisión de Ciencia, Tecnología e Innovación de la Cámara de Diputados, en donde participaron especialistas de distintas universidades tanto públicas como privadas», para seguir avanzando en esta Ley para la Regulación Ética de la Inteligencia Artificial y la Robótica.
«Tenemos que ver cómo se puede controlar y que no nos controle así como también actualizarnos, es decir, ver que otras áreas de oportunidad tenemos con la IA», señaló el diputado y consideró que el país debe priorizar «que este tipo de tecnologías no invada la intimidad de las personas, que no se utilice para espiar, para suplantar la imagen y voz de las personas».
Con información de EFE y Eva Fu.
Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.