Pamplona Actual

Una 'alucinación' del ChatGPT le genera un grave problema a un abogado de Pamplona

La Sala optó por el archivo de la pieza separada sin sanción, considerando la naturaleza novedosa de la tecnología empleada y la rápida reacción del abogado en

La sala de lo Civil y Penal número 1 del TSJN ha decidido no sancionar a un abogado de un despacho pamplonés que empleó la herramienta de inteligencia artificial ChatGPT en la redacción de una querella, a pesar de que este recurso introdujo graves errores en el escrito al citar legislación de Colombia. La resolución archivó la pieza separada que examinaba la posible «mala fe procesal» y «abuso de derecho» al comprobar, aunque subrayó la importancia de un uso ético y cuidadoso de las tecnologías emergentes en el ámbito judicial.

El caso se originó el pasado junio, cuando se inadmitió una querella.  Durante la revisión, se identificó una cita errónea del artículo 454B del Código Penal, correspondiente en realidad al Código Penal de Colombia y no al de España. El abogado querellante, al percatarse del error, presentó una disculpa formal y explicó que el fallo se debió a un uso inadecuado de ChatGPT 3 por parte de su despacho.

En los fundamentos de derecho, el tribunal señaló que, aunque el uso de IA en el ámbito judicial es una herramienta emergente, los abogados tienen la responsabilidad de verificar la exactitud de los contenidos generados por estas tecnologías. Citando informes recientes de entidades como la Law Society y el Consejo de la Abogacía Europea, el auto recuerda que el control humano es fundamental para evitar que se utilicen de forma indebida citas o interpretaciones legales inexactas. Este mismo criterio llevó a tribunales en otros países, como en el caso Avianca de Estados Unidos, a imponer multas por el uso descontrolado de IA en presentaciones judiciales.

La Sala optó por el archivo de la pieza separada sin sanción, considerando la naturaleza novedosa de la tecnología empleada y la rápida reacción del abogado en reconocer y rectificar el error. La resolución, no obstante, se presenta como una advertencia para los profesionales del derecho sobre las posibles consecuencias legales, éticas y deontológicas del uso descuidado de herramientas de IA en procesos judiciales.

La decisión invita a la reflexión sobre los desafíos y riesgos de incorporar tecnologías de inteligencia artificial en los procedimientos legales, donde el rigor y la precisión son imprescindibles.

ÚNETE A NUESTRO BOLETÍN