Musk dice que Twitter está limitando cuántos tuits pueden leer los usuarios

Por Tom Ozimek
01 de julio de 2023 6:31 PM Actualizado: 01 de julio de 2023 6:31 PM

El director ejecutivo de Twitter, Elon Musk, dijo el sábado que la plataforma de redes sociales limitará el número de tuits que pueden leer los usuarios debido a los niveles «extremos» de manipulación del sistema y de extracción de datos.

Musk dijo en un comunicado que Twitter ha aplicado los siguientes límites temporales a los usuarios: las nuevas cuentas no verificadas sólo podrán leer 300 posteos al día.

Los límites aumentan a 600 posteos al día para las cuentas no verificadas existentes, es decir, las que no tienen una marca de verificación azul, mientras que las cuentas verificadas disfrutan de un volumen diez veces mayor, es decir, 6000 posteos al día.

Algunos usuarios expresaron su decepción por el control.

«Poner límites estrictos a las lecturas es propio de la Web 1.0», escribió la cuenta verificada Disclose.tv, que tiene alrededor de 1.2 millones de seguidores.

«Puede que esté exagerando, pero tengo la sensación de que suelo ver más de 6000 posteos al día como parte de mi trabajo», escribió John Junyszek, gestor de la comunidad de 343 Industries, en un tuit en el que comentaba los posteos de Musk. «Da la sensación de que podría afectar negativamente a las personas que más utilizan esta plataforma».

«Si esto acaba causando problemas a la gente, ¿estarías dispuesto a aumentar el límite de vistas?», preguntó.

Luego, en un post de seguimiento unos 15 minutos después del mensaje de Junyczek, Musk dijo que «pronto» se aumentarían los límites de velocidad a 8000 posteos al día para las cuentas de verificación azul, y a 800 para las no verificadas y 400 para las nuevas cuentas no verificadas.

«Tarifa limitada debido a la lectura de todos los mensajes sobre los límites de tarifa», bromeó Musk en un tuit.

Anteriormente, Twitter anunció que exigiría a los usuarios tener una cuenta en la plataforma de redes sociales para ver los tuits, una medida que Musk calificó el viernes de «medida de emergencia temporal».

Musk dijo entonces que cientos de organizaciones o más estaban rastreando datos de Twitter de forma «extremadamente agresiva», lo que repercutía negativamente en la experiencia del usuario.

Anteriormente, el jefe de Twitter había expresado su descontento con empresas de inteligencia artificial como OpenAI, propietaria de ChatGPT, por utilizar los datos de Twitter para entrenar sus grandes modelos lingüísticos.

Musk amenaza con demandar a Microsoft

En abril, Musk amenazó con demandar a Microsoft, que ha invertido miles de millones en OpenAI, tras acusar a la empresa de utilizar datos de Twitter para entrenarse.

«Han entrenado ilegalmente utilizando datos de Twitter. Hora de demandar», escribió Musk en Twitter el 19 de abril, sin dar más detalles sobre las acusaciones.

Aunque Musk no aportó pruebas del supuesto «entrenamiento ilegal» de Microsoft ni dijo para qué era el entrenamiento, ChatGPT se entrena utilizando el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) y grandes cantidades de texto de diversas fuentes de Internet, incluidas conversaciones humanas.

El tuit de Musk se produjo poco después de que Microsoft anunciara que retiraba a Twitter de una de sus plataformas publicitarias.

Microsoft no respondió a una solicitud de comentario de The Epoch Times sobre la amenaza de demanda de Musk.

Anteriormente, Musk se unió a más de 1100 personas, incluidos expertos y ejecutivos del sector como el cofundador de Apple Steve Wozniak, para firmar una carta abierta en la que se pide a todos los laboratorios de inteligencia artificial que pongan en pausa el entrenamiento de sistemas más potentes que el Chat GPT-4 durante al menos seis meses.

La carta no pide que se detenga el desarrollo de la IA en general, sino sólo el de los sistemas más avanzados, en lo que Musk y los demás expertos describieron como un acto de «mero retroceso en la peligrosa carrera hacia modelos de caja negra impredecibles cada vez más grandes y con capacidades emergentes».

Musk, junto con otros firmantes de la carta, citó su preocupación por los posibles «riesgos para la sociedad y la humanidad» de la IA.

Impactos «catastróficos» en la sociedad

Los firmantes de la carta advirtieron que los sistemas de IA con inteligencia humana competitiva podrían plantear «profundos riesgos para la sociedad y la humanidad» y deberían planificarse y gestionarse cuidadosamente para evitar impactos potencialmente «catastróficos» sobre el mundo y sus habitantes.

«Tras haber conseguido crear potentes sistemas de IA, ahora podemos disfrutar de un ‘verano de la IA’ en el que cosechemos las recompensas, diseñemos estos sistemas en claro beneficio de todos y demos a la sociedad la oportunidad de adaptarse», afirmaron los expertos.

«La sociedad ha puesto en pausa otras tecnologías con efectos potencialmente catastróficos para la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos precipitemos desprevenidos hacia un otoño», argumentaron.

Pidieron que los laboratorios de IA y los expertos independientes utilizaran la moratoria de seis meses para desarrollar y aplicar un conjunto de protocolos de seguridad para el diseño de IA avanzada que garantice que estos sistemas son «seguros más allá de toda duda razonable».

«Áreas delicadas»

En sus primeras declaraciones públicas desde que se publicó la carta, el cofundador de Microsoft, Bill Gates, afirmó que los llamamientos a poner en pausa el desarrollo de la IA no «resolverán los retos» que se avecinan, que una paralización sería difícil de aplicar a escala mundial y que los motivos para hacerlo no están claros.

El cofundador de Microsoft echó un jarro de agua fría sobre la idea de una pausa en el desarrollo y sugirió un curso de acción diferente.

«No creo que pedir a un grupo concreto que haga una pausa resuelva los problemas», dijo Gates. «Está claro que [hay] enormes beneficios en estas cosas… lo que tenemos que hacer es identificar las áreas difíciles».

Además de recomendar un enfoque más quirúrgico para abordar los riesgos de la IA, presumiblemente identificando los mayores riesgos y trabajando en formas de mitigarlos, Gates criticó los vagos criterios de aplicación de la carta.

«No entiendo realmente quiénes dicen que podrían parar, y si todos los países del mundo estarían de acuerdo en parar, y por qué parar», dijo Gates a Reuters. «Pero hay muchas opiniones diferentes en este ámbito».

Aunque Gates no especificó las «áreas delicadas» que tenía en mente para un examen más minucioso de los riesgos, señaló en una reciente entrada de blog que existe la «posibilidad de que las IA se descontrolen» y decidan que los humanos son una amenaza.

También reconoció la posibilidad de que las IA superinteligentes o «fuertes» puedan, en el futuro, establecer sus objetivos, que podrían ser contrarios a los intereses de la humanidad.

Microsoft ha estado a la vanguardia del desarrollo de la IA, invirtiendo miles de millones en OpenAI.

Con información de Katabella Roberts.


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.