Inicio justicia ¿La IA amenaza con desestabilizar el juicio criminal?

¿La IA amenaza con desestabilizar el juicio criminal?

15
0

A principios de 2020, un teléfono celular capturó el ataque fatal de un corredor llamado Ahmaud Arbery por tres hombres blancos en Georgia. Ese video fue crucial como evidencia en los casos penales contra los agresores, quienes fueron condenados por asesinato, y ayudó a impulsar una ola nacional de protestas de Black Lives Matter ese año.

Tan solo seis años después, el panorama de los medios grabados parece un poco diferente, ya que las herramientas de inteligencia artificial se han vuelto ubicuas y el texto, audio y video generados por IA han inundado internet. ¿Todavía podemos creer en las cosas que vemos, escuchamos y leemos? ¿Y cómo podría nuestra nueva duda afectar nuestra capacidad para buscar justicia bajo la ley?

Duncan Levin es un abogado de defensa de cuello blanco y ex fiscal federal del Departamento de Justicia de los Estados Unidos, y conferenciante en derecho quien durante el trimestre de invierno enseñó Dinero, Crimen y la Constitución: Las Fronteras Legales de la Incautación de Bienes y el Lavado de Dinero en la Facultad de Derecho de Harvard. Él sostiene que a medida que los medios generados por IA borran la realidad, la tecnología tiene el potencial de «desestabilizar» algunos aspectos del sistema penal.

«Creo que la IA podría cambiar no solo lo que la gente piensa sobre la evidencia, sino lo que piensa que es la evidencia», dice Levin.

Levin argumenta que a medida que las personas se vuelven más escépticas sobre los tipos de evidencia aceptados durante mucho tiempo, los fiscales, abogados de defensa y jueces tendrán que replantear radicalmente su enfoque. Pero mientras él cree que este ajuste podría ser doloroso a corto plazo, a la larga podría «forzar al sistema a volverse más sofisticado».

En una entrevista con Harvard Law Today, Levin compartió su opinión sobre cómo la inteligencia artificial podría impactar el juicio penal, y por qué, en general, la IA podría servir como una «presión saludable, aunque incómoda».

En su experiencia como fiscal y abogado defensor, ¿qué problemas únicos podría plantear la IA en casos criminales en comparación con litigios civiles?

La mayor parte de la conversación sobre la IA en el derecho se ha centrado en la práctica civil, y comprensiblemente así. El litigio civil es donde las cuestiones de eficiencia, costos, escala y automatización son más visibles. Y, por supuesto, los tribunales han lidiado con el problema de abogados citando casos «alucinados». Pero la ley penal presenta un problema diferente en su conjunto porque los juicios penales no se tratan solo de resolver disputas eficientemente. Se trata del intento del estado de privar de libertad a un individuo, y se estructuran en torno a una carga de la prueba constitucional diseñada para minimizar el riesgo de error fáctico.

Esa es la razón por la cual la IA plantea un desafío más profundo en casos penales que en civiles. En un caso civil, si se disputa la autenticidad de un documento o grabación, eso puede afectar el peso, la credibilidad o la responsabilidad. En un caso penal, la misma incertidumbre puede operar a un nivel más profundo, porque el gobierno está obligado a demostrar la culpa más allá de una duda razonable. La posibilidad de que una prueba pueda ser sintética, manipulada o de otro modo poco fiable no es simplemente otro conflicto probatorio. Puede afectar directamente si la acusación ha cumplido con la carga que el debido proceso exige.

También hay una diferencia estructural en la función de la evidencia. Los casos penales a menudo dependen de un conjunto relativamente estrecho de pruebas clave: una grabación, un video, una secuencia de mensajes de texto, una publicación en redes sociales, un historial de geolocalización. Estas pruebas a menudo se presentan a los jurados no como detalles periféricos, sino como anclajes de la verdad narrativa. La IA amenaza con desestabilizar eso. Introduce la posibilidad de que lo que parece ser la prueba más concreta en el caso pueda ser de hecho la menos segura.

Y ese desafío corta en ambas direcciones. Como ex fiscal, puedo ver cómo la IA puede dificultar que el gobierno asegure condenas en casos que dependen en gran medida de pruebas digitales. Como abogado defensor, también veo el peligro de que una vez que el escepticismo se generalice, los acusados puedan tener más dificultades para persuadir a los jurados con pruebas exculpatorias auténticas. Entonces, el problema no es simplemente que la IA ayude a un lado u otro. Pone presión en la función de búsqueda de la verdad del juicio penal en sí mismo.

¿Qué tipos de evidencia actualmente admisible en los juicios penales podrían estar en riesgo de ser creados o manipulados por la IA?

La respuesta obvia es el audio y el video, porque esas son las formas de evidencia con las que la gente más fácilmente asocia deepfakes. Si un jurado escucha lo que suena como la voz del acusado, o ve lo que parece ser un acusado en un video, esa prueba puede ser enormemente poderosa. Pero el verdadero problema es más amplio que el ejemplo familiar de deepfake.

Las modernas acusaciones penales dependen en gran medida de artefactos digitales de todo tipo: fotografías, imágenes de vigilancia, mensajes de texto, correos electrónicos, mensajes directos, publicaciones en redes sociales, capturas de pantalla, registros de cuentas en línea y líneas de tiempo digitalmente generadas de ubicación o actividad. Cada una de esas formas de evidencia lleva consigo una afirmación implícita de autenticidad. Dice, en efecto, esto sucedió, esto se dijo, esta cuenta se usó, esta imagen refleja la realidad. La IA hace que esas afirmaciones implícitas sean más fáciles de falsificar y más difíciles de evaluar por personas no expertas.

Lo que me preocupa especialmente es que el peligro no se limita a la fabricación total. La IA también puede usarse para alterar, mejorar, cortar, recontextualizar o simular evidencia de formas más sutiles. Una imagen manipulada no necesita ser totalmente fabricada para engañar. Una grabación de voz no necesita ser totalmente sintética para crear una falsa impresión. Una secuencia de mensajes puede generarse o alterarse selectivamente de maneras que conserven la plausibilidad superficial mientras cambian el significado sustantivo. En otras palabras, el desafío no es solo una falsa evidencia; es una falsa evidencia persuasiva.

También está lo que considero como el efecto atmosférico de la IA. Incluso cuando la evidencia es genuina, los jurados pueden saber lo suficiente sobre la manipulación digital para preguntarse si no lo es. Entonces, la IA cambia no solo el perfil de riesgo de exposición de evidencias falsas en la sala del tribunal. También cambia el estatus epistémico de las pruebas reales. La evidencia que una vez pareció sólida puede ahora verse como contingente. Eso es un desarrollo profundo en un sistema que durante mucho tiempo ha confiado en la confianza en el sentido común de los jurados en lo que pueden ver y escuchar.

«El peligro no se limita a la fabricación total. La IA también puede usarse para alterar, mejorar, cortar, recontextualizar o simular la evidencia de formas más sutiles. El desafío no es solo una falsa evidencia; es una falsa evidencia persuasiva.» Puede que nos hayamos enterado del requisito de que un jurado encuentre a un acusado culpable «más allá de una duda razonable». ¿Qué significa eso? ¿Podría la posibilidad de evidencia digital fabricada afectar el significado de la prueba más allá de una duda razonable?

«Mas allá de una duda razonable» es la forma en que la ley expresa un juicio moral y constitucional de que cuando el estado busca privar a alguien de libertad, la confianza ordinaria no es suficiente. El estándar no requiere certeza en un sentido absoluto, y no significa más allá de toda duda posible. Pero refleja una elección deliberada de tolerar cierto riesgo de que personas culpables queden en libertad para reducir el riesgo de que personas inocentes sean condenadas erróneamente.

Ese principio asume, sin embargo, que los jurados están evaluando evidencia en un mundo donde las preguntas centrales son credibilidad, consistencia, percepción, memoria y corroboración. En otras palabras, el estándar se desarrolló en un entorno donde la duda típicamente se relaciona con testigos o interpretaciones de hechos. La IA introduce una capa diferente de duda. Plantea la posibilidad de que el propio elemento: la grabación, la imagen, la publicación, el mensaje, puede no ser lo que nadie dice que es.

Esa distinción es importante. Un jurado puede concluir que un testigo es sincero y aún tener una duda razonable porque el elemento subyacente parece potencialmente sintético. Entonces, la IA puede afectar el funcionamiento del estándar de duda razonable no al cambiar su definición formal, sino al cambiar los tipos de incertidumbre que los jurados aportan a sus deliberaciones. La pregunta no es solo «¿creo a este testigo?», sino «¿creo en la ontología de esta evidencia en absoluto?». Esa es una pregunta más fundamental.

En ese sentido, la IA puede agudizar el estándar de duda razonable al hacer visible algo que antes era implícito: la prueba no se trata simplemente de persuasión, sino de confianza epistémica en la realidad de la propia prueba. Si los jurados comienzan a sentir que la evidencia digital lleva una posibilidad irredimible de artificialidad, eso puede alterar el significado práctico de la carga del gobierno incluso sin ningún cambio doctrinal en las instrucciones del jurado.

El punto más grande es que la duda razonable no es solo una fórmula verbal. Es un mecanismo para asignar el riesgo de incertidumbre en la adjudicación penal. La IA puede aumentar drásticamente una categoría de incertidumbre: la incertidumbre acerca de la autenticidad. Y si eso sucede, la carga de la prueba se sentirá más pesada en la práctica, porque los jurados serán menos propensos a tratar las exhibiciones digitales como puntos de referencia fijos. Es por eso que la IA tiene el potencial de remodelar no solo la ley de evidencia, sino el significado vivido del estándar constitucional en sí.

¿Qué nuevas cargas, si las hay, deben colocarse en las partes para verificar que la evidencia no sea manipulada por la IA? ¿Quién debería llevar esa carga?

En los casos penales, la respuesta debe comenzar con los principios básicos. El gobierno lleva la carga de la prueba. Es el gobierno el que busca la condena. Entonces, si la evidencia digital es central para el caso de la acusación, la acusación debería llevar la carga principal de establecer la autenticidad con mayor rigor de lo que los tribunales a menudo han exigido en el pasado.

No quiero decir que cada caso deba requerir una procesión de expertos o un mini juicio sobre informática forense. La ley tiene que seguir siendo viable. Pero creo que los tribunales deberán apartarse de la idea de que una base delgada siempre es suficiente, y que cualquier preocupación más profunda se refiere solo al peso. En algunos casos, especialmente aquellos que dependen de audio, video o comunicaciones digitales disputadas, la autenticidad puede requerir más que familiaridad del testigo o una simple cadena de custodia. Puede requerir un examen forense, una procedencia más clara, un análisis de metadatos más sólido, o un testimonio de expertos suficiente para asegurar al tribunal que el elemento no ha sido alterado materialmente o generado sintéticamente.

Al mismo tiempo, no enmarcaría esto solo como una carga para los fiscales. Si un acusado busca introducir evidencia digital afirmativa, los tribunales también pueden requerir una demostración más sólida de autenticidad. Pero la asimetría aún importa. Un acusado no lleva la carga de demostrar inocencia. Entonces, si bien ambos lados pueden necesitar cumplir con estándares de evidencia más sólidos, la carga constitucional debe permanecer donde corresponde: en el estado cuando busca encarcelar.

Con el tiempo, creo que la ley avanzará hacia una combinación de soluciones doctrinales y tecnológicas. Desde el lado doctrinal, los tribunales pueden volverse más exigentes bajo las reglas existentes de autenticación. Desde el lado tecnológico, herramientas de procedencia, firmas criptográficas o sistemas de captura segura pueden surgir como formas más confiables de mostrar autenticidad en el momento de la creación. Pero hasta que esos sistemas sean más generalizados, los jueces tendrán que decidir si las bases tradicionales siguen siendo adecuadas en un mundo donde la fabricación es más fácil, más barata y más difícil de detectar.

Entonces, la verdadera carga no es solo evidencial. Es institucional. Los tribunales deberán decidir cuánta incertidumbre puede tolerar el proceso penal antes de que el riesgo de error sea inaceptable.

En su opinión, ¿cómo podría influir la IA en la forma en que las personas piensan sobre la evidencia y el sistema de justicia penal en general?

Creo que la IA podría cambiar no solo lo que la gente piensa sobre la evidencia, sino lo que piensa que es la evidencia. Durante mucho tiempo, la evidencia visual y digital llevaba una aura de objetividad. Las personas podrían disputar lo que recordaba un testigo o por qué un testigo mentía, pero un video, una grabación o un intercambio de texto contemporáneos a menudo se sentía como un tipo de prueba más sólida. Esa intuición siempre estuvo algo exagerada, pero era real y legalmente importante. La IA la debilita.

Una vez que el público interioriza que la evidencia digital altamente realista puede ser fabricada, todo el entorno de prueba cambia. Las personas pueden volverse más escépticas, más cautelosas y en algunos entornos más cínicas. Ese escepticismo tiene alguna virtud. El derecho penal no debería basarse en una fe ingenua en las narrativas oficiales o en la infalibilidad de la evidencia objetiva aparente. Pero el escepticismo también puede volverse corrosivo si disuelve la confianza indiscriminadamente.

Esa es la preocupación institucional más grande. El sistema de justicia depende de la confianza pública no solo en que los juicios sean justos, sino en que sean capaces de alcanzar la verdad a través de procedimientos legales. Si los jurados comienzan desde la premisa de que cualquier grabación puede ser falsa, cualquier imagen puede ser fabricada y cualquier comunicación digital puede ser falsificada, entonces el juicio penal corre el riesgo de convertirse menos en un ejercicio de descubrimiento de hechos que en un ejercicio de ansiedad epistémica generalizada. Eso no es saludable para ninguno de los lados.

Al mismo tiempo, este momento puede forzar al sistema a volverse más sofisticado. Los jueces, abogados, jurados e investigadores pueden necesitar volverse más alfabetizados sobre la creación, preservación y evaluación forense de la evidencia digital. Los tribunales pueden tener que hablar más abiertamente sobre lo que saben y no saben. En ese sentido, la IA puede forzar una mayor honestidad legal. Puede hacer explícito que la confianza en la evidencia siempre ha descansado en una combinación de doctrina, tecnología y confianza social.

Entonces, creo que la influencia a largo plazo de la IA será de doble filo. Puede profundizar el desconfío a corto plazo, pero también puede impulsar al sistema legal penal hacia una rendición de cuentas más rigurosa y transparente sobre lo que significa probar algo. Y en un sistema construido en torno a la idea de que la libertad no debería ser privada sin una confianza muy alta, esa es en última instancia una presión saludable, incluso si es incómoda.