|
Escuchar la noticia
Getting your Trinity Audio player ready...
|
Un abogado en Nueva York enfrenta consecuencias legales tras utilizar la IA ChatGPT para investigaciones jurídicas
Uso inadecuado de la IA ChatGPT en un caso legal
Un abogado de Nueva York se encuentra en medio de un problema legal después de que su firma utilizara la herramienta de inteligencia artificial (IA) ChatGPT para llevar a cabo investigaciones legales. El tribunal ha señalado que se enfrenta a una «circunstancia sin precedentes» después de descubrir que un documento presentado hacía referencia a casos legales ficticios.
El abogado que utilizó la herramienta admitió ante el tribunal que desconocía que el contenido generado por ChatGPT pudiera ser falso. Aunque ChatGPT tiene la capacidad de producir texto original según la solicitud, también se advierte que puede generar información inexacta.
Investigación realizada por un colega del abogado
El caso en cuestión involucraba a un hombre que demandaba a una aerolínea por una presunta lesión personal. El equipo legal del demandante presentó un resumen que citaba varios casos legales anteriores como precedentes para respaldar su argumento. Sin embargo, los abogados de la aerolínea posteriormente informaron al juez que no pudieron encontrar varios de los casos mencionados en el resumen.
El juez Castel, al revisar el caso, descubrió que seis de los casos presentados eran decisiones judiciales falsas con citas y referencias internas ficticias. Esto llevó al juez a demandar una explicación por parte del equipo legal del demandante.
Durante el curso de varias presentaciones, se reveló que la investigación no fue realizada por el abogado Peter LoDuca, quien representaba al demandante, sino por un colega suyo en la misma firma legal. Steven A Schwartz, un abogado con más de 30 años de experiencia, utilizó ChatGPT para buscar casos legales similares.
Compromiso de no utilizar IA sin verificar su autenticidad
En su declaración por escrito, el Sr. Schwartz aclaró que el Sr. LoDuca no participó en la investigación y desconocía cómo se llevó a cabo. El Sr. Schwartz admitió que lamenta profundamente haber confiado en el chatbot y que nunca antes lo había utilizado para la investigación legal, sin saber que el contenido generado por el chatbot podría ser falso. Afirmó que, en el futuro, nunca volverá a utilizar la inteligencia artificial para «complementar» su investigación legal sin verificar absolutamente su autenticidad.
Orden de explicación y posibles consecuencias disciplinarias
El tribunal ha ordenado a ambos abogados, que trabajan en la firma Levidow, Levidow & Oberman, que expliquen por qué no deben ser disciplinados en una audiencia que se llevará a cabo el 8 de junio. La utilización inadecuada de la IA en la investigación legal plantea serias preocupaciones sobre la exactitud de la información generada y las implicaciones éticas y profesionales que esto conlleva.