Marchena (Tribunal Supremo): "No puedes firmar lo que te dice ChatGPT"

En el marco del Foro de Expertos de Confilegal, el magistrado del Tribunal Supremo Manuel Marchena formuló una advertencia de especial relevancia sobre el uso de la inteligencia artificial en el ejercicio profesional.

Su afirmación, clara y directa —«no puede sostenerse una decisión bajo el argumento de que “esto me lo ha dicho ChatGPT y yo firmo”»— trasciende el ámbito estrictamente jurídico y se proyecta sobre el conjunto de profesiones que implican la asunción de responsabilidad técnica o decisoria. No se trata únicamente de abogados, sino también de auditores, asesores, consultores o incluso jueces, en la medida en que todos ellos pueden verse tentados a incorporar, de forma acrítica, resultados generados por sistemas algorítmicos.

Desde una perspectiva jurídica, el núcleo de la cuestión radica en la indelegabilidad de la responsabilidad profesional. La utilización de herramientas de inteligencia artificial no altera el régimen de responsabilidad aplicable ni desplaza el deber de diligencia exigible a quien adopta la decisión final. En este sentido, el recurso a un sistema automatizado no constituye, en modo alguno, un elemento exonerador.

El propio magistrado subrayó que, aun reconociendo el valor potencial de estas tecnologías como instrumentos de apoyo, la validación de sus resultados sin un proceso de verificación autónomo implica la asunción de una responsabilidad cualificada. En particular, incidió en la necesidad de analizar críticamente aquellos supuestos en los que el sistema puede incurrir en error, por minoritarios que estos sean, señalando que corresponde al profesional “ponderar” y “depurar” esos márgenes de inexactitud.

Esta reflexión adquiere una especial relevancia en actividades como la función jurisdiccional o la auditoría, en las que la decisión no puede reducirse a una mera ratificación de resultados automatizados, sino que exige un juicio propio, motivado y jurídicamente fundamentado.

Con todo, quizá el elemento más significativo de su intervención no reside únicamente en la advertencia sobre la posibilidad de error, sino en la identificación de un fenómeno creciente: la adhesión prácticamente automática a las respuestas generadas por la inteligencia artificial. Esta confianza no verificada constituye, en sí misma, un factor de riesgo.

Los recientes supuestos en los que se han detectado resoluciones judiciales inexistentes, interpretaciones normativas erróneas o decisiones económicas perjudiciales adoptadas sobre la base de información generada por IA, no pueden explicarse exclusivamente por limitaciones tecnológicas. Responden, en gran medida, a una delegación indebida del juicio profesional.

En definitiva, la cuestión no se limita a determinar si la inteligencia artificial puede errar —circunstancia ya asumida—, sino a delimitar el modo en que los profesionales integran dichas herramientas en su proceso de toma de decisiones. La confianza, en este contexto, no puede desligarse de la verificación. Y es precisamente en esa exigencia donde se articula la responsabilidad.

Anterior
Anterior

La IA puede transformar el derecho. Pero siempre necesita un humano detrás.

Siguiente
Siguiente

ChatGPT le prometió 800€ al mes de pensión. Recibió 200€. Para siempre.