ChatGPT, Gemini y Copilot lo admiten: pueden equivocarse. ¿Lo sabías?
El uso de herramientas de inteligencia artificial se ha generalizado en ámbitos tanto personales como profesionales, consolidándose como un instrumento habitual para la obtención de información y la toma de decisiones. No obstante, conviene partir de una premisa esencial: ningún sistema de inteligencia artificial es infalible.
Los principales proveedores de estos sistemas reconocen expresamente esta limitación, incorporando advertencias sobre la posible existencia de errores en sus respuestas. En algunos casos, dichas advertencias se presentan de forma visible en la propia interfaz de uso, mientras que en otros se integran en los términos y condiciones del servicio, cuya consulta por parte del usuario no siempre es habitual. En todo caso, la existencia de este aviso es una constante, con independencia de la forma en que se comunique.
Desde una perspectiva jurídica, esta cuestión no es meramente formal. La visibilidad o accesibilidad de la advertencia puede influir en la percepción de fiabilidad del sistema por parte del usuario, pero no altera el hecho de que la información proporcionada por una inteligencia artificial carece, por sí misma, de garantía de exactitud absoluta. En consecuencia, el usuario no puede legítimamente equiparar estas respuestas a un asesoramiento profesional cualificado.
La relevancia de esta distinción se intensifica en aquellos supuestos en los que las consultas versan sobre materias con implicaciones jurídicas, económicas o personales significativas, tales como la interpretación de un contrato, la gestión de un despido, el cálculo de una pensión, la impugnación de una sanción o la planificación de una herencia. En estos contextos, un error no constituye una mera inexactitud sin consecuencias, sino que puede generar efectos jurídicos relevantes e incluso irreversibles.
Por ello, resulta imprescindible subrayar que la utilización de herramientas de inteligencia artificial no desplaza la responsabilidad del usuario en la verificación de la información obtenida ni sustituye el criterio de un profesional cualificado. Antes bien, debe entenderse como un instrumento complementario cuya utilidad depende, en gran medida, de un uso prudente y crítico.
En definitiva, la advertencia sobre la posible existencia de errores está presente en todos los sistemas de inteligencia artificial, con independencia de su mayor o menor visibilidad. Sin embargo, dicha advertencia no exonera al usuario de su deber de diligencia. En particular, cuando se trata de decisiones con trascendencia jurídica o económica, la verificación independiente de la información y, en su caso, el asesoramiento profesional especializado, no solo resultan recomendables, sino necesarios.