Los delincuentes están atacando a los usuarios del chatbot de inteligencia artificial (IA) ChatGPT, robándoles sus cuentas y comerciando con ellas en mercados ilegales de delincuentes online —la amenaza ya ha afectado a más de 100,000 personas en todo el mundo.
Group-IB, una empresa de ciberseguridad con sede en Singapur, identificó 101,134 dispositivos infectados con malware de robo de información que contenían credenciales guardadas de ChatGPT, según un comunicado de prensa del 20 de junio.
«Estas credenciales comprometidas se encontraban en los registros de malware de robo de información comercializado en mercados ilícitos de la web oculta durante el año pasado», se lee en el comunicado.
«La región Asia-Pacífico ha experimentado la mayor concentración de credenciales ChatGPT puestas a la venta».
Cuando los usuarios interactúan con la IA, el malware oculto captura y transfiere datos a terceros. Los hackers pueden utilizar la información recopilada para generar personas y manipular datos para diversas actividades fraudulentas.
La información sensible, incluidos los datos personales y financieros, no debe revelarse nunca —por muy amigable que sea el usuario con la IA.
Además, este problema no es necesariamente un inconveniente del proveedor de IA: la infección podría estar ya en el dispositivo o en otras aplicaciones.
De las más de 100,000 víctimas entre junio de 2022 y mayo de 2023, 12,632 cuentas ChatGPT correspondieron a India, seguida de Pakistán con 9217, Brasil con 6531, Vietnam con 4771 y Egipto con 4588. Estados Unidos ocupó el sexto lugar con 2995 credenciales ChatGPT comprometidas.
“Muchas empresas están integrando ChatGPT en su flujo operativo. Los empleados ingresan correspondencia clasificada o usan el bot para optimizar el código propietario”, dijo Dmitry Shestakov, jefe de inteligencia de amenazas en Group-IB.
«Dado que la configuración estándar de ChatGPT retiene todas las conversaciones, esto podría ofrecer inadvertidamente un tesoro de inteligencia sensible a los actores de amenazas si obtienen las credenciales de la cuenta».
El análisis de la empresa de ciberseguridad de los mercados clandestinos criminales reveló que se accedió a la mayoría de las cuentas de ChatGPT utilizando el malware Raccoon info stealer, que por sí solo fue responsable de más de 78,000 de las credenciales comprometidas.
«Los ladrones de información son un tipo de malware que recopila credenciales guardadas en navegadores, datos de tarjetas bancarias, información de monederos de criptomonedas, cookies, historial de navegación y otra información de navegadores instalados en ordenadores infectados», afirma Group-IB. Posteriormente, envía toda esta información al operador del malware.
Protección contra el hackeo
Para minimizar los riesgos de que las cuentas de ChatGPT se vean comprometidas, Group-IB aconsejó a los usuarios del chatbot que actualicen periódicamente sus contraseñas e implementen la autenticación de dos factores (2FA). Al activar 2FA, los usuarios de ChatGPT obtendrán un código de verificación adicional para acceder a los servicios del chatbot, generalmente en teléfonos móviles.
Los usuarios pueden habilitar 2FA en sus cuentas de ChatGPT en la sección «controles de datos» de la configuración.
Pero aunque 2FA es una excelente medida de seguridad, no es infalible. Por eso, si los usuarios conversan con ChatGPT sobre temas delicados, como detalles personales íntimos, información financiera o cualquier cosa relacionada con el trabajo, deberían considerar borrar todas las conversaciones guardadas.
Para hacerlo, los usuarios deben ir a la sección «borrar conversaciones» en sus cuentas y hacer clic en «confirmar borrar conversaciones».
Group-IB señaló que ha habido un aumento en la cantidad de cuentas ChatGPT comprometidas, lo que refleja la mayor popularidad del chatbot.
En junio de 2022, había 74 cuentas comprometidas, según Grupo-IB. Esto aumentó a 1134 en noviembre de 2022, 11,909 en enero y 22,597 en marzo.
ChatGPT para hackear
Si bien ChatGPT abre una nueva posibilidad para que los hackers accedan a información confidencial, el chatbot también puede ayudar a esas personas a mejorar y potenciar sus actividades delictivas.
En una publicación de blog del 19 de diciembre de 2022 , la firma de inteligencia de amenazas cibernéticas Check Point Research (CPR) detalló cómo ChatGPT y modelos similares de IA pueden crear más amenazas de hacking.
Por ejemplo, dado que ChatGPT ayuda a generar código, la aplicación reduce el nivel de codificación de programas maliciosos, lo que permite que incluso personas menos capacitadas perpetren ciberataques sofisticados.
«Se pueden generar fácilmente varios scripts, con ligeras variaciones utilizando diferentes redacciones. También se pueden automatizar complicados procesos de ataque», afirmaba en el post.
Un posteo publicado el 13 de enero de CPR advertía de los intentos de ciberdelincuentes rusos de saltarse las restricciones de ChatGPT con el fin de utilizar el chatbot para llevar a cabo posibles delitos.
«Estamos viendo que los hackers rusos ya están discutiendo y comprobando cómo saltarse el geocercado para utilizar ChatGPT para sus fines maliciosos», se lee en la publicación.
«Creemos que lo más probable es que estos hackers estén intentando implementar y probar ChatGPT en sus operaciones delictivas cotidianas. Los ciberdelincuentes están cada vez más interesados en ChatGPT porque la tecnología de IA que hay detrás puede hacer que un hacker sea más rentable”.
Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.