Tecnologia

Abogado australiano se disculpa por presentar argumentos inventados por IA en un caso de homicidio

8819130682.png

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

Los fallos de la IA causaron un aplazamiento de 24 horas en la resolución de un caso que Elliott preveía finalizar el miércoles.

Un abogado destacado en Australia se disculpó ante un juez por presentar argumentos en un caso de asesinato que incluían citas falsas y sentencias inexistentes generadas por inteligencia artificial.

El error en la Corte Suprema del estado de Victoria es otro de una serie de desastres que la IA ha causado en los sistemas judiciales de todo el mundo.

El abogado defensor Rishi Nathwani, quien tiene el prestigioso título legal de Consejero del Rey, asumió la “total responsabilidad” por presentar información incorrecta en los alegatos del caso de un adolescente acusado de asesinato, según documentos judiciales a los que The Associated Press tuvo acceso el viernes.

“Estamos profundamente apenados y avergonzados por lo ocurrido”, dijo Nathwani al juez James Elliott el miércoles, en nombre del equipo de defensa.

Los errores de la IA provocaron un retraso de 24 horas en la resolución de un caso que Elliott esperaba concluir el miércoles. Elliott determinó el jueves que el cliente de Nathwani, cuya identidad no se puede revelar por ser menor de edad, no era culpable de asesinato debido a su discapacidad mental.

“Con riesgo de quedarme corto, la forma en que se desarrollaron estos acontecimientos es insatisfactoria”, dijo Elliott a los abogados el jueves.

“La capacidad del tribunal de confiar en la exactitud de las presentaciones hechas por los abogados es crucial para la debida administración de justicia”, añadió Elliott.

Las presentaciones falsas incluían citas inventadas de un discurso ante la legislatura estatal y citas de casos inexistentes supuestamente de la Corte Suprema.

Los errores fueron descubiertos por los asociados de Elliott, quienes no pudieron encontrar los casos y solicitaron a los abogados defensores que proporcionaran copias.

Los abogados admitieron que las citas “no existen” y que el documento presentado contenía “citas ficticias”, según documentos judiciales.

Los abogados explicaron que verificaron la exactitud de las citas iniciales y asumieron erróneamente que las demás también serían correctas.

Los alegatos también fueron enviados al fiscal Daniel Porceddu, quien no verificó su veracidad.

El juez señaló que la Corte Suprema publicó el año pasado directrices sobre el uso de la IA por parte de los abogados.

“No es aceptable utilizar inteligencia artificial a menos que el producto de ese uso sea verificado de manera independiente y exhaustiva”, dijo Elliott.

Los documentos judiciales no identifican el sistema de inteligencia artificial generativa utilizado por los abogados.

En un caso similar en Estados Unidos en 2023, un juez federal impuso multas de $5,000 a dos abogados y a un bufete de abogados después de que ChatGPT fuera culpado por presentar una investigación legal ficticia en una reclamación por lesiones en aviación.

El juez P. Kevin Castel afirmó que actuaron de mala fe. Sin embargo, atribuyó sus disculpas y las medidas correctivas adoptadas para explicar por qué no eran necesarias sanciones más severas para asegurar que ellos u otros no volvieran a permitir que las herramientas de inteligencia artificial los impulsaran a inventar antecedentes legales falsos en sus argumentos.

Más tarde ese mismo año, se citaron más sentencias judiciales ficticias inventadas por la IA en documentos legales presentados por los abogados de Michael Cohen, exabogado personal del expresidente estadounidense Donald Trump. Cohen asumió la responsabilidad, alegando que no se dio cuenta de que la herramienta de Google que utilizaba para su investigación jurídica también era capaz de provocar las llamadas alucinaciones de la IA.

En junio , la jueza del Tribunal Supremo británico Victoria Sharp advirtió que presentar material falso como si fuera auténtico podría considerarse desacato al tribunal o, en los “casos más graves”, perversión del curso de la justicia, lo que conlleva una pena máxima de cadena perpetua.

TRA Digital

GRATIS
VER