Palma de la cara: Durante el poco tiempo que ha sido popular entre el público, el uso de ChatGPT dentro del espacio legal no ha ido bien. Si bien este último incidente no involucra a la IA generativa citando casos inventados, sí vio a un bufete de abogados reprendido por un juez por usar la herramienta para calcular los honorarios de los abogados a un precio «excesivo» de $600 por hora.
Cuddy Law Firm, con sede en la ciudad de Nueva York, utilizó ChatGPT para respaldar su solicitud de las enormes tarifas que la compañía estaba cobrando por un juicio ganado recientemente.
Cuddy había demandado al Departamento de Educación de la ciudad de Nueva York en nombre de una madre y su hijo con necesidades especiales. Según la Ley de Educación para Individuos con Discapacidades, el tribunal de distrito, a su discreción, puede otorgar honorarios razonables de abogados como parte de los costos a los padres del niño con discapacidad que sea la parte ganadora.
Se preguntó a la herramienta de OpenAI cuál sería una tarifa por hora razonable para un abogado con hasta tres años de experiencia en una audiencia sobre educación sobre discapacidades. Dijo que la cantidad podría oscilar entre $200 y $500 por hora, y que los abogados que se especializan en ciertas áreas del derecho podrían obtener tarifas más altas de hasta $1,200 por hora o más.
Siguiendo el consejo de ChatGPT, Cuddy Law presentó una factura final de $113,484 por sus servicios, lo que equivale aproximadamente a $550 a $600 por hora. Pero el juez de distrito federal Paul Engelmayer no quedó impresionado por el uso de la tecnología por parte de la empresa para calcular su factura.
«Basta decir que la invocación de ChatGPT por parte de Cuddy Law Firm como apoyo a su agresiva oferta de honorarios es total e inusualmente poco convincente», escribió Engelmayer en su opinión, calificándolo de muy por encima de las demandas razonables.
El juez señaló que como ChatGPT no identificó los datos que utilizó para llegar a su conclusión, era imposible saber si esta información era «muy real y relevante» o simplemente algo inventado, lo que sigue siendo un problema para las IA generativas. También se mencionó el hecho de que la empresa no pudo identificar los datos precisos utilizados para recibir las conclusiones de ChatGPT.
El juez Engelmayer señaló dos de los muchos casos legales en los que ChatGPT había alucinado información. Uno fue Mata v. Avianca, un demanda judicial involucrando un caso de lesiones personales contra Avianca Airlines. El abogado Steven A. Schwartz presentó un escrito de 10 páginas citando varias decisiones judiciales relevantes que hacían referencia a casos similares, todos los cuales habían sido inventados por ChatGPT.
El otro caso, Park v. Kim, involucró a la abogada Jae Lee, quien fue remitida al panel de quejas de abogados después de que usó ChatGPT para investigar una demanda por negligencia médica y no confirmó que el caso que citó fuera válido.
En el caso Cuddy, el juez Engelmayer finalmente decidió que los honorarios de los abogados solicitados por la empresa se reducirían a la mitad, a 53.050 dólares, por razones que incluían el uso de ChatGPT. Añadió que «salvo un cambio de paradigma en la confiabilidad de esta herramienta, Cuddy Law Firm haría bien en eliminar las referencias a ChatGPT de futuras solicitudes de tarifas».