Ex abogado de Trump suministró sin querer citas legales falsas generadas por IA para presentarlas ante la corte

Por Ryan Morgan
30 de diciembre de 2023 1:38 PM Actualizado: 30 de diciembre de 2023 1:38 PM

Michael Cohen, el ex abogado del ex presidente Donald Trump convertido en crítico, admitió ante la corte el viernes haber confiado inadvertidamente en citas legales falsas generadas por el servicio de chatbot de inteligencia artificial de Google.

El Sr. Cohen había cumplido condena en prisión después de declararse culpable en 2018 de cargos federales de evasión de impuestos, hacer declaraciones financieras falsas y hacer contribuciones indebidas a la campaña. Se declaró culpable más tarde ese mismo año de perjurio en un testimonio ante el Congreso. Afirmó que hizo las contribuciones indebidas a la campaña y las declaraciones falsas ante el Congreso para ayudar a ocultar un supuesto romance entre el presidente Trump y una estrella de cine para adultos y para ocultar los esfuerzos que la organización Trump había hecho para desarrollar una propiedad en Moscú, Rusia, un proyecto que no llegó a buen término.

En los últimos meses, el Sr. Cohen había tratado que su período de libertad supervisada terminara antes. Sin embargo, el esfuerzo se topó con un obstáculo a principios de este mes después de los archivos legales introducidos en nombre del Sr. Cohen parecía citar casos judiciales inexistentes. El juez Jesse Furman, del Distrito Sur de Nueva York, ordenó al abogado de Cohen, David M. Schwartz, que diera cuenta de las citas legales falsificadas y amenazó con imponer sanciones.

En un comunicado de respuesta del 28 de diciembre, el equipo legal de Cohen admitió haber citado casos legales falsos, pero dijo que Cohen había proporcionado inadvertidamente las citas falsas mientras trataba de ayudar a su abogado.

«Con el fin de ayudar a su abogado, el Sr. Cohen llevó a cabo una investigación de fuentes abiertas para encontrar casos que reflejaran lo que anecdóticamente sabía que era cierto. En concreto, buscó jurisprudencia para ilustrar que poner fin a su libertad supervisada en estas circunstancias estaría en consonancia con la forma en que otras cortes trataron solicitudes similares. Lamentablemente, las citas que el Sr. Cohen encontró en Internet se referían a casos inexistentes, y el Sr. Schwartz las presentó sin comprobar», rezaba la declaración presentada por otra de los abogados del Sr. Cohen, E. Danya Perry.

Según la declaración, el Sr. Cohen había utilizado sin saberlo Google Bard, el chatbot de inteligencia artificial generativa del gigante de las búsquedas.

El Sr. Cohen tenía experiencia previa en la búsqueda de citas de casos como abogado en ejercicio, pero había sido inhabilitado tras su condena penal.

«Las citas no válidas en cuestión —y muchas otras que el Sr. Cohen encontró pero que no se utilizaron en la moción— fueron producidas por Google Bard, que el Sr. Cohen malinterpretó como un motor de búsqueda sobrealimentado, no como un servicio de IA generativa como Chat-GPT. El Sr. Cohen ya había utilizado Google Bard para identificar con éxito información precisa en otros contextos y no se dio cuenta de su falta de fiabilidad como herramienta de investigación jurídica», dice la declaración de la Sra. Perry del 28 de diciembre. «Como la mayoría de los clientes no profesionales, el Sr. Cohen no tiene acceso a Westlaw ni a otras herramientas de investigación jurídica estándar para verificar las citas que encuentra en línea. En su lugar, confió en su abogado para verificarlos en su nombre».

Los chatbots de IA generativa como ChatGPT y Google Bard utilizan muestras de texto escrito real, conocidas como grandes modelos de lenguaje, para generar conversaciones humanas aparentemente auténticas. Aunque los servicios de chatbot pueden proporcionar información fiable en algunos casos, también pueden experimentar lo que algunos investigadores de IA llaman «alucinaciones». Una alucinación puede ser un caso en el que, cuando se le pide que proporcione una cita de ejemplo, el chatbot de IA generará su mejor aproximación de cómo podría ser esa cita en lugar de un ejemplo auténtico.

La Sra. Perry explicó además que se había producido un error de comunicación entre ella, el Sr. Schwartz y el Sr. Cohen, en el que hubo un malentendido sobre quién estaba llevando ciertos aspectos del caso del Sr. Cohen. Como resultado, la Sra. Perry dijo que el Sr. Schwartz creyó que había sido ella quien había proporcionado las citas falsas del caso en lugar de darse cuenta que las citas procedían en realidad de la investigación de código abierto del Sr. Cohen utilizando Google Bard.

Al discutir las posibles sanciones a principios de este mes, el juez señaló que era la segunda vez este año que un juez de una corte federal de Manhattan se enfrentaba a abogados por citas falsas generadas por inteligencia artificial. Dos abogados en un caso no relacionado fueron multados con 5000 dólares por citar casos falsos que ChatGPT inventó.

Con información de The Associated Press.

De NTD News


Únase a nuestro canal de Telegram para recibir las últimas noticias al instante haciendo click aquí


Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en Estados Unidos y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.