Ir al contenido principal

El Juez Digital: Sentencias por algoritmos.



La emisión de una decisión jurídica exige el desarrollo de un discurso argumentativo, cuyo primer objetivo consistirá en resolver el conflicto, pero que en ningún caso podrá obviar la fundamentación o la exposición de las razones que llevan al sentenciador a adoptar dicha convicción.

Ahora bien, la argumentación es una actividad verbal, social y racional dirigida a convencer a un crítico razonable sobre la aceptabilidad de una tesis mediante la presentación de una constelación de proposiciones para justificar o rechazar la proposición expresada en la tesis.[1]

Entonces, tal actividad argumentativa ¿podría ser desarrollada por un algoritmo, particularmente cuando se requiere la solución de un conflicto en el ámbito del Derecho del Trabajo?

Durante la segunda quincena de marzo de 2020 (con motivo de la crisis del Covid-19), la Autoridad Laboral española resolvió más de 98 mil expedientes de regulación temporal del empleo (ERTEs), donde la decisión administrativa pasaba por verificar la concurrencia de la causal de caso fortuito o fuerza mayor ¿Tal validación podría haberse efectuado solo con inteligencia artificial?

La automatización experimentada en procesos productivos ha demostrado superiores niveles de eficiencia en comparación con la actividad humana. Pero, tratándose de tareas de carácter intelectual, resultará difícil suprimir durante el análisis la capacidad de discrecionalidad humana que nace del libre albedrío.[2]

Por otra parte, recientemente una sentencia ha rechazado la implementación de un sistema de inteligencia artificial que pretendía implementar el servicio de seguridad social de los Países Bajos, haciendo elaboración de perfiles y de procesamiento de datos recogidos de otros servicios gubernamentales del ámbito tributario y aduanero. La alarma, a juicio del tribunal, radica en la eventual negación de prestaciones sociales con base en decisiones discriminatorias, o fundadas en la estigmatización de cierto grupo social, principalmente en contra de los residentes de “barrios problemáticos”.[3]

Entonces podríamos anticipar que, para la emisión de una sentencia en sede laboral, mediante el uso de IA, no puede prescindirse de la exposición de motivos o razones pertinentes al conflicto, mediante un ejercicio de argumentación, en que cada pretensión sea fundadamente admitida o descartada.

En otras palabras, el sistema de resolución no debe ser una caja negra, sino que responder el por qué y cómo se adoptó la decisión, otorgando una explicación de la manera en que el algoritmo llegó a tales conclusiones.[4]

Por último, quizás lo más complicado será resolver cómo un sistema automatizado podrá componer la desigualdad de los litigantes, circunstancia que deriva de la realidad social al margen de la actividad judicial en el proceso. En ese sentido ¿será posible dotar las pretensiones del trabajador con un factor de ponderación más elevado frente a las alegaciones del empleador?

Por el momento, la decisión del juez laboral sigue nutriéndose de concepciones subjetivas que muchas veces no quedan reflejadas en el texto de la sentencia. En síntesis, la decisión judicial, si bien puede expresar un razonamiento lógico y jurídico convincente y clarificador, muchas veces no contiene las verdaderas motivaciones humanas que sustentan el fallo, y que por tal razón serán imposibles de “enseñar” a un sistema de inteligencia artificial.

La sociedad actual exige niveles superiores de transparencia en todos los ámbitos de actuación del Estado. La labor jurisdiccional no está al margen de este requerimiento, y por tanto, las decisiones contenidas en las sentencias deben sustentarse en un proceso racional de argumentación que genere confianza entre las partes en conflicto.

La paz social, a la que se debe aspirar en un Estado de Derecho, solo resulta posible cuando la ciudadanía es convencida mediante argumentos, y no vencida por el poder público.

La sentencia laboral, entonces, debe contener la descripción de las motivaciones que han llevado al sentenciador a fallar de tal o cual manera, esto es, una suficiente fundamentación que satisfaga el standard del derecho fundamental a la Tutela Judicial Efectiva.

Por tal razón, ante la continua implementación de sistemas de procesamiento de datos, capaces de automatizar la toma de decisiones mediante la utilización de inteligencia artificial, resulta necesario prescribir que tales sistemas deben igualmente cumplir con el deber de motivación del fallo.

La sentencia redactada mediante IA, debe contener argumentos de la misma calidad que los elaborados por humanos, y su algoritmo no puede dar lugar a decisiones discriminatorias.

En particular, el juez laboral está dotado de una experiencia y otros atributos intelectuales de carácter subjetivo, que nutren su sentencia, elementos de juicio que muchas veces no se reflejan en el texto. Por lo que un Juez Digital deberá estar dotado de esos mismos atributos humanos.

Por el momento, hay decisiones jurídicas de baja complejidad posibles de resolver mediante la aplicación de reglas binarias. En estos casos la IA puede ayudar a descongestionar los tribunales laborales dejando la posibilidad de mayor tiempo y dedicación a aquellas cuestiones complejas que deben ser atendidas por jueces humanos.

En cuestiones complejas, como por ejemplo la valoración de la prueba ante la vulneración de derechos fundamentales, parece necesario que aun sean resueltas por personas, exigiendo con celo el deber de fundamentación y congruencia en su decisión.

Con todo, el Derecho Procesal del Trabajo debe atender las transformaciones sociales que se están produciendo y, de esa forma, permanecer como herramienta de protección de los derechos laborales.


[1] Van Eemeren, F. y Grootendorst, R., A Systematic Theory of Argumentation. The pragma-dialectical approach, Ed. CUP, Cambridge, 2004.
[2] Hartzog, W., Conti, G., Nelson, J. y Shay, L., “Inefficiently Automated Law Enforcement”, Michigan State Law Review, 2015, disponible en: https://digitalcommons.law.msu.edu/lr/vol2015/iss5/2
[3] Tribunal de la Haya, caso C-09-550982-HA ZA 18-388, de 05 de febrero de 2020. Disponible en: https://uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBDHA:2020:865
[4] Deeks, A., “The Judicial Demand for Explainable Artificial Intelligence”, Columbia Law Review, Nº 119, 2019. Disponible en: SSRN: https://ssrn.com/abstract=3440723

Comentarios

Entradas populares de este blog

"Nexus" de Yuval Noah Harari. Revisión crítica.

En este episodio de Derecho al Futuro , exploramos las críticas más destacadas a Nexus: A Brief History of Information Networks From the Stone Age to AI , la última obra de Yuval Noah Harari, publicadas durante su primera semana en el mercado. A través de las opiniones de medios como The Washington Post , The Economist , The Guardian y El País , analizamos las fortalezas y limitaciones del análisis de Harari sobre las redes de información y la inteligencia artificial. Harari argumenta que las sociedades humanas se han sostenido más por mitos y narrativas que por hechos, y que la inteligencia artificial está jugando un papel cada vez más activo en este contexto. Sin embargo, los críticos destacan que su enfoque sobre la IA puede ser simplista y alarmista. En este episodio, desglosamos cada crítica, reflexionamos sobre sus implicaciones legales y éticas, y ofrecemos una evaluación balanceada del impacto de Nexus en el debate actual sobre la IA y la responsabilidad tecnológica.   ...

IA Generativa: ¿Este Trabajo lo Hiciste Tú o ChatGpt?

Muchas veces nos enfrentamos a la pregunta: ”¿Este trabajo lo hiciste con ChatGPT?” . Pero, ¿qué hay realmente detrás de esa pregunta? A menudo, cuando la he planteado a quienes la formulan, las respuestas son variadas: curiosidad, interés, o incluso admiración por la herramienta. Sin embargo, lo que subyace —aunque rara vez se admite— es una puesta en duda de la calidad del trabajo o un intento de exponer un supuesto fraude.   En este episodio, desmenuzamos esa duda y reflexionamos sobre cómo la IA generativa está cambiando la forma en que trabajamos y aprendemos. Desde las críticas por el posible plagio en la educación hasta los prejuicios en el ámbito laboral, analizamos por qué estas herramientas despiertan tantas emociones encontradas.   Hablaremos de cómo integrar la IA generativa de manera ética y responsable, asegurando que sea una aliada para la creatividad y no un reemplazo de nuestras capacidades humanas. Además, exploraremos las oportunidades que ofrece y los r...

Neurodiversidad e Inteligencia Artificial: Reimaginando el Futuro Inclusivo

En este episodio de Derecho al Futuro , profundizamos en cómo la neurodiversidad y la inteligencia artificial están transformando los entornos laborales y educativos. A través de investigaciones recientes, exploramos cómo las diferencias cognitivas, como el autismo o el TDAH, no son déficits, sino variaciones naturales que pueden aportar ventajas únicas cuando se gestionan adecuadamente. Analizamos cómo la IA puede ser una herramienta poderosa para promover la inclusión, pero también discutimos los riesgos si no se diseña de manera ética y responsable. Un episodio crucial para entender el futuro de la diversidad en un mundo tecnológicamente avanzado.     Referencias Arriagada Bruneau, G. (2024). Los sesgos del algoritmo: La importancia de diseñar una inteligencia artificial ética e inclusiva . La Pollera Ediciones.   Bankins, S., Ocampo, A. C., Marrone, M., Restubog, S. L. D., & Woo, S. E. (2024). A multilevel review of artificial intelligence in organizations: ...