Proceso penal e inteligencia artificial (IA)
Carlos María Romeo Casabona. Catedrático de Derecho Penal y Director del Grupo de Investigación Cátedra de Derecho y Genoma Humano de la Universidad del País Vasco UPV/EHU. Miembro del European Group on Ethics in Science and New Technologies of the European Commission.
El Derecho Penal contemporáneo descansa básicamente en su función preventiva, es decir, en utilizar recursos jurídicos (consecuencias jurídico-penales: penas y medidas de seguridad, principalmente) destinados a prevenir la perpetración de delitos, en consecuencia, a evitar su comisión futura. Mientras que el fundamento de la pena se encuentra, según la opinión dominante en la doctrina, en el delito cometido, esto es, en la gravedad de lo ilícito del hecho cometido y en la culpabilidad del condenado.
Para determinar el riesgo que presenta un delincuente de volver a delinquir (peligrosidad criminal) antes de dictar sentencia, se dispone de varios métodos. El método actuarial mediante la utilización automatizada de algoritmos se automatiza y se objetiva al máximo mediante su procesamiento digital mediante sistemas de IA.
Es previsible que si se produce un desarrollo muy perfeccionado y sofisticado de la IA en este sector aquélla sea capaz de predecir de forma objetiva -automatizada- el comportamiento criminal de un delincuente sin entrar en el estudio de su personalidad.
Algunas sentencias judiciales de los EEUU han recurrido ya a esta tecnología, en concreto la dictada por el Tribunal Supremo del Estado de Wisconsin, State vs. Loomis (13 de julio de 2016), utilizando un programa de IA (COMPAS). El resultado fue que el programa dictaminó un riesgo de reincidencia y que la sentencia condenatoria impusiera una pena más grave.
La cuestión principal objeto de litigio, sorprendentemente, no fue la técnica en si, que conduce a hacer descansar el proceso evaluador en sistemas informáticos no suficientemente contrastados, sino en la eficiencia o no de garantías procesales para el acusado (compatibilidad con el derecho al debido proceso –the right to a due process- en el Derecho estadounidense o con el derecho fundamental a la tutela judicial efectiva, art. 24 CE) y la posible colisión con otros derechos fundamentales, como el derecho a la protección de datos personales (art. 18.4 CE). Los argumentos jurídicos de la defensa y de la propia sentencia giraron en torno a la fiabilidad del programa, sobre lo que el tribunal refutó que la sala estaba en condiciones de evaluar este aspecto, aunque no fuera concluyente que lo hubiera hecho así; a la negación a la defensa del acceso al sistema de IA para comprobar su funcionamiento y fiabilidad, lo que también fue rechazado por anteponer el secreto industrial de la empresa privada que lo fabricó y comercializó a los derechos procesales del acusado; y otros más que no pueden citarse aquí.
La polémica desatada por la sentencia citada se ha polarizado especialmente en torno a los asuntos procesales, que siendo muy importantes, no se centran en la cuestión sustantiva de partida, que lo es más todavía: si es aceptable que un sistema de IA pueda llegar a ser un instrumento determinante o de peso decisivo para imponer determinadas consecuencias jurídico-penales basadas en la supuesta capacidad predictiva de aquél.
Tanto en el ámbito de la justicia penal como en otros sectores de la vida social en los que la IA tiene un muy relevante futuro (p. ej., en el ámbito de la asistencia sanitaria y de la investigación biomédica) sigue siendo decisivo que exista un control y una capacidad de reevaluación a la luz de cada situación individual por parte de un ser humano cualificado, al menos en aquellos casos que van más allá de un trabajo básicamente repetitivo. Indudablemente, es una cuestión que va más allá de las diversas garantías procesales y del principio de la libre apreciación de la prueba; es un actitud ante la IA que nos va a venir: el ser humano debe estar en condiciones de controlar o dominar cualquier tecnología emergente, incluidos los sistema “autónomos” inteligentes.
En primer lugar, hay que deshacer un malentendido bastante generalizado. El loable y compartible propósito de reducir o eliminar componentes subjetivos en el evaluador sobre el comportamiento futuro de un delincuente, introduciendo elementos objetivos externos a aquél, no debe conducir a la adopción de elementos de procedimientos objetivos, automatizados y despersonalizados como exclusivos registros de la evaluación. Al contrario, la evaluación predictiva ha de ser siempre individual y personalizada, tomando como soporte elementos –objetivables en la medida de lo posible- que permitan excluir apreciaciones basadas en la subjetividad del evaluador técnico o pericial y del propio juez; son, por tanto, aspectos diferentes. Mientras que los procedimientos basados en técnicas conductuales predictivas, los sistemas actuariales, y todavía más si utilizan como herramienta sistemas de IA, tienden a lo contrario, a la despersonalización, a la estratificación o clasificación en grupos preestablecidos y a la automatización, prohibido por el Reglamento General de Protección de Datos de la Unión Europea (2016, art. 22).
Hay que evitar las desviaciones, y habrá que ser capaz de combinar ambas metodologías, en la medida que les corresponde, según su respectiva fiabilidad: primero la metodología actuarial como soporte inicial y a continuación la basada en el estudio de la personalidad del delincuente como fundamento.
Dicho esto, el concepto de peligrosidad criminal puede seguir siendo entendido como la probabilidad de que un delincuente vuelva a cometer un delito. Es una definición que sólo tiene relevancia e interés conceptual para el Derecho, pero con el apoyo de los estudios criminológicos puede profundizarse en el desarrollo de su contenido, incorporando para su mejor comprensión los enfoques que ofrecen otras ciencias y disciplinas, como la Psicología y la Psiquiatría, pero no sólo éstas.
Esta metodología continúa teniendo a su favor la orientación individualizadora que la preside, esto es, su pretensión predictiva sobre el comportamiento delictivo futuro de una persona concreta, más allá del perfil grupal que encarne, pues es decisivo respecto a la fijación de la duración de una pena, a la concesión de sustitutivos penales y a la aplicación de medidas de seguridad, a su naturaleza y a su duración, haciendo abstracción en este momento de lo que respecto a este último particular pueda establecer la ley. Habrá que avanzar también para reducir lo máximo posible el margen de error sobre el pronóstico criminal, desenmascarando los falsos positivos y los falsos negativos.
Me parece rechazable sustituir el concepto de peligrosidad criminal como presupuesto de las medidas de seguridad y de otras respuestas penales, a pesar de las limitaciones que pueda presentar, por otros instrumentos sustentados en la idea de riesgo, entendido éste como una fuente objetiva y despersonalizada -deshumanizada- de comportamiento criminal, de modo semejante a como sucede con riesgos provenientes de fenómenos naturales, de las actividades humanas, de objetos o instrumentos creados por el ser humano; más todavía si ese riesgo establecido exclusivamente a través de procedimientos actuariales, y definitivamente si lo es automatizada de forma exclusiva o prioritaria por procedimientos de IA.
Los informes individuales basados en estudios de la personalidad y del entorno social del delincuente, realizados a cargo de profesionales especializados (criminólogos, asistentes sociales, psicólogos, psiquiatras) pueden ser suficientemente eficientes para elaborar un pronóstico en los casos más extremos, pues son más fácilmente predecibles. Sin embargo, lo son bastante menos para los casos intermedios, que constituyen el bloque más extenso de delincuentes que deben ser sometidos a evaluación predictiva.
En no pocos de estos casos los dictámenes e informes periciales o expertos pueden confirmar una personalidad patológica, que ha podido ser ya tomada en consideración por el juzgador en el momento de pronunciarse sobre la ausencia o disminución penalmente relevante de la capacidad de culpabilidad (inimputabilidad o semiimputabilidad) del procesado (v. arts. 6, 95 y 101 y ss. CP). Quedaría entonces abierta la conjetura para el delincuente imputable no extremo -como los casos de psicópatas declarados plenamente responsables penalmente; o de delincuentes multirreincidentes-, respecto al cual estos estudios periciales no garantizarán en ocasiones una fiabilidad altamente elevada. De ahí que haya que asumir el alcance limitado de estos procedimientos y que haya que recurrir a ellos con cierta cautela.
Por razones semejantes me parecen también rechazables procedimientos de determinación o de evaluación del riesgo basados exclusivamente en criterios despersonalizados, manejo de algoritmos actuariales automatizados, que lo son todavía más, incluidos los procedimientos informáticos y los sistemas de inteligencia artificial, como ha ocurrido en los casos recogidos en algunas sentencias de los EEUU.
En primer lugar, me parecen rechazables porque en la actualidad no ofrecen una fiabilidad razonable, por lo que es necesario esperar a su desarrollo y perfeccionamiento, debiendo previamente ser sometidos a diversas formas de supervisión y hasta de homologación por agencias altamente cualificadas y especializadas en estas tecnologías, además de independientes, colaboradoras con la Administración de Justicia. Y, en segundo lugar, por entender que, utilizados de forma exclusiva y excluyente, comportan la vulneración de diversas garantías vinculadas al Estado de Derecho, en particular el principio de legalidad, tanto desde la perspectiva penal como procesal, y el derecho a la tutela judicial efectiva.
Si respecto a la segunda objeción entiendo que no es necesario ir más allá de lo que se indicó más arriba, por parecer evidente, por lo que se refiere a la primera el recurso a los procedimientos actuariales implica una renuncia a una máxima individualización personal del riesgo como presupuesto de la imposición de una medida de seguridad (o de la toma de decisiones relacionadas con la ejecución de la pena) que no es aceptable en materia penal.
No es en ningún caso admisible que en el marco de un proceso penal prevalezcan los intereses económicos privados, como son los intereses de propiedad intelectual de un fabricante privado, que también reconoce y garantiza la CE (art. 33), frente a los derechos constitucionales fundamentales de los procesados.
Como resumen y conclusión de lo expuesto, es seguro que tanto los procedimientos actuariales actuales como los automatizados mediante sistemas de IA que se desarrollen en el futuro cumplirán tareas auxiliares o complementarias, posiblemente incluso relevantes, pero deberían serlo en el entorno de premisas conceptuales individualizadoras, como la peligrosidad criminal. Además, el ser humano deberá seguir siendo capaz de imponerse a los sistemas automatizados inteligentes, tomando autónomamente sus decisiones, cierto que teniendo a la vista todos los informes oportunos, dentro del marco de la libre apreciación de la prueba, a la que no debe renunciarse. La tutela efectiva de los derechos fundamentales y el sistema judicial y el Derecho procesal deberán garantizar que esto sea así.