A medida que los tribunales recurren a algoritmos para predecir quién reincidirá, un académico legal examina si reducir a los acusados a puntajes de riesgo puede reconciliarse alguna vez con el principio constitucional de dignidad humana.
En todo el mundo, se está pidiendo cada vez más a los algoritmos que hagan algo que antes estaba reservado para el juicio humano: ayudar a decidir quién debe permanecer en libertad y quién debe ser privado de la libertad.
En los últimos años, las herramientas algorítmicas de evaluación de riesgos se han integrado más profundamente en los sistemas de justicia penal en todo el mundo. Desde decisiones de fianza hasta recomendaciones de sentencia, las tecnologías predictivas prometen eficiencia, consistencia y objetividad basada en datos. Sin embargo, detrás de estas promesas se encuentra una cuestión apremiante de derechos humanos y constitucionales: ¿puede la toma de decisiones algorítmicas realmente respetar el principio de dignidad humana?
Los tribunales y los encargados de formular políticas han comenzado a depender de herramientas algorítmicas para estimar la probabilidad de que un individuo reincida. Estos sistemas analizan datos históricos, indicadores demográficos y patrones de comportamiento para generar puntajes de riesgo que influyen en los resultados judiciales. Aunque estas tecnologías a menudo se presentan como instrumentos neutrales, plantean profundas preocupaciones sobre transparencia, responsabilidad y equidad.
Uno de los problemas centrales radica en la opacidad del razonamiento algorítmico. Muchos sistemas predictivos operan como «cajas negras» propietarias, lo que significa que incluso los jueces y los acusados pueden no entender completamente cómo se produjo un puntaje de riesgo en particular. Cuando la libertad está en juego, esa opacidad se convierte en un problema fundamental. Los sistemas legales basados en el estado de derecho requieren decisiones que puedan ser explicadas, impugnadas y justificadas. Los algoritmos que no pueden ser escrutados de manera significativa corren el riesgo de socavar este principio fundamental.
Más allá de los problemas de transparencia, la justicia predictiva también plantea serias preocupaciones sobre el sesgo estructural. Los algoritmos se entrenan en conjuntos de datos históricos que pueden reflejar desigualdades sociales existentes. Si las prácticas policiales pasadas han dirigido desproporcionadamente a ciertas comunidades, los datos resultantes inevitablemente reproducirán esas disparidades. El algoritmo, por lo tanto, puede parecer objetivo mientras refuerza silenciosamente la discriminación sistémica. Varios casos conocidos, como el uso de la herramienta de evaluación de riesgos COMPAS en los Estados Unidos, ya han demostrado cómo los sistemas algorítmicos pueden reproducir disparidades arraigadas.
Quizás el desafío más significativo, sin embargo, concierne al concepto de dignidad humana. En muchas tradiciones constitucionales, particularmente dentro del pensamiento legal europeo, la dignidad humana funciona como un principio fundamental que limita las formas en que los individuos pueden ser tratados por el Estado. Los seres humanos no pueden reducirse a meros objetos de cálculo administrativo. Deben seguir siendo sujetos de derechos, capaces de ser juzgados como individuos en lugar de probabilidades estadísticas.
Las evaluaciones de riesgo predictivas, en cambio, operan a través de generalizaciones. Evalúan a los individuos no principalmente en función de sus acciones personales, sino a través de patrones derivados de conjuntos de datos grandes. Al hacerlo, corren el riesgo de transformar el juicio legal en una forma de gestión estadística. El acusado individual se convierte menos en una persona ante la ley y más en un punto de datos dentro de un modelo predictivo.
Esta tensión es particularmente visible en contextos de justicia penal, donde las decisiones sobre la libertad tienen una profunda importancia moral y legal. La argumentación judicial tradicionalmente requiere una evaluación individualizada, la consideración de circunstancias y el ejercicio de juicio humano. Cuando los resultados algorítmicos comienzan a dar forma a estas decisiones, hay un peligro de que el razonamiento estadístico pueda reemplazar gradualmente el razonamiento legal normativo.
Esto no significa que la tecnología no tenga un papel en los sistemas legales modernos. Las herramientas basadas en datos pueden ayudar a los tribunales al identificar patrones o resaltar información relevante. Sin embargo, deben seguir siendo auxiliares en lugar de determinantes. Los algoritmos pueden informar la toma de decisiones judiciales, pero no pueden reemplazar la responsabilidad de los jueces de interpretar la ley y evaluar las circunstancias únicas de cada caso.
En última instancia, el surgimiento de la justicia predictiva obliga a los sistemas legales a confrontar una pregunta fundamental: ¿hasta dónde debemos permitir que el razonamiento algorítmico penetre en el ámbito del juicio humano?
La eficiencia y la innovación tecnológica son metas valiosas, pero no pueden ser a expensas de los principios constitucionales. Si las herramientas algorítmicas comienzan a dar forma a los resultados legales de maneras que oscurecen la responsabilidad o reducen a los individuos a perfiles de riesgo probabilísticos, la legitimidad del propio sistema de justicia puede estar en riesgo.
El desafío para los sistemas legales contemporáneos no es simplemente regular la inteligencia artificial, sino asegurar que la innovación tecnológica permanezca firmemente anclada en los principios de dignidad humana, equidad y estado de derecho.
(Tuğba Tosun & Uğur Çobanoğlu es una investigadora independiente que trabaja en la intersección de la consejería familiar, la sociología, la psicología, el derecho internacional y la ciencia política.)
Las opiniones expresadas en JURIST Commentary son responsabilidad exclusiva del autor y no reflejan necesariamente los puntos de vista de los editores, el personal, los donantes o la Universidad de Pittsburgh.






