La relevancia de la ética en el desarrollo y la implantación de la IA y la robótica en la sociedad
Carlos María Romeo Casabona. Catedrático de Derecho Penal y Director del Grupo de Investigación Cátedra de Derecho y Genoma Humano de la Universidad del País Vasco UPV/EHU. Miembro del European Group on Ethics in Science and New Technologies of the European Commission.
El EGE (European Group on Ethics in Science and New Technologies) proporciona a la Comisión Europea asesoramiento independiente al más alto nivel sobre aspectos éticos de la ciencia y las nuevas tecnologías en relación con la legislación o las políticas de la UE. El EGE es un órgano consultivo de la Presidenta de la Comisión Europea, que fue creado en 1991, a la que informa, así como al Colegio de Comisarios en su conjunto.
Actualmente el EGE está trabajando en temas de edición genética, inteligencia artificial y el futuro del trabajo y la colaboración entre los Estados frente a las pandemias. Constituido por quince miembros nombrados por la Presidenta de la Comisión Europea.
Una de las recomendaciones más innovadoras aprobadas por el EGE es la Opinión relativa a Inteligencia Artificial, Robótica y sistemas “Autónomos”. A ella van dedicadas las siguientes reflexiones.
1. CUESTIONES ÉTICAS CLAVE
La robótica y los sistemas de IA plantean una serie de cuestiones éticas importantes y graves:
- Seguridad en relación con la prevención de daños, la evaluación y la disminución de riesgos.
- Responsabilidad moral: cómo atribuirla y distribuirla y quién es el responsable de los resultados desfavorables o dañosos de estas tecnologías ¿Tiene sentido hablar de ‘control compartido’ y ‘responsabilidad compartida’ entre humanos y máquinas inteligentes? ¿Serán los humanos una forma de 'crumple zones‘ moral, destinado a ‘absorber’ la responsabilidad o realmente les corresponde a ellos asumir la responsabilidad de lo que hayan hecho?
- Gobernanza, regulación, diseño, desarrollo, inspección, monitoreo, pruebas y certificación: ¿cómo rediseñar nuestras instituciones y leyes para garantizar el bienestar de los individuos y de la sociedad y la seguridad de ésta ante los sistemas de IA?
- Toma de decisiones democráticas, incluyendo la toma de decisiones sobre las instituciones, las políticas y los valores en los que se basan las preguntas anteriores.
- Información y transparencia de la IA y los sistemas “autónomos”: ¿A qué valores sirven de forma eficaz y demostrable estos sistemas? ¿En torno a qué valores queremos diseñar nuestras políticas y nuestras máquinas y organizar nuestras sociedades? ¿Y qué valores estamos dejando que sean socavados con el progreso tecnológico? ¿Cómo prevenir el ataque a los sistemas democráticos y la utilización de los sistemas de clasificación como instrumento para el dominio por quienes tienen acceso a estas poderosas tecnologías? La ‘optimización’ impulsada por la IA de procesos sociales basados en sistemas de clasificación social con los que algunos países están experimentando, violan la idea básica de igualdad y libertad, pues se construyen ‘diferentes tipos de personas’ cuando en realidad sólo hay ‘diferentes características’ de las personas.
2. REFLEXIONES FUNDAMENTALES
“Autonomía”:
Capacidad de las personas humanas a formular, pensar y elegir normas, reglas y leyes que ellos mismos deben seguir. Incluye el derecho a ser libre de establecer los propios estándares y elegir las propias metas y propósitos en la vida.
Los procesos cognitivos vinculados se identifican con la dignidad de las personas humanas. Por lo general, conllevan las características de autoconciencia y autoría propia de acuerdo a razones y valores.
Autonomía en sentido ético sólo puede atribuirse a los seres humanos y por ello no debe relativizarse.
Es inapropiado aplicar el término “autonomía” a meros artefactos, por muy avanzados, complejos, adaptativos o incluso “inteligentes” que sean.
Dignidad humana:
- Ningún artefacto o sistema inteligente puede en sí mismo ser llamados “autónomo”.
- No se les puede conceder la posición moral de la persona humana ni “heredar” la dignidad humana.
La dignidad humana como fundamento de los derechos humanos implica que una intervención y participación humana significativa debe ser posible en asuntos que conciernen a los seres humanos y a su medio ambiente.
Los seres humanos deben ser capaces de determinar qué valores son servidos por la tecnología, cuáles son moralmente relevantes y cuáles son los objetivos finales y las concepciones del bien dignas de ser perseguidas.
Esto no puede dejarse en manos de las máquinas, por poderosas que sean.
La capacidad y la voluntad de asumir y atribuir responsabilidad moral son parte integrante de la concepción de la persona en la que se basan todas nuestras instituciones morales, sociales y jurídicas.
La responsabilidad moral se interpreta aquí en un sentido amplio, en el que puede referirse a varios aspectos del albedrío humano, por ejemplo, la causalidad, la rendición de cuentas (obligación de rendir cuentas), la responsabilidad (obligación de indemnizar por daños y perjuicios), las actitudes reactivas como el elogio y la culpa (adecuación de una serie de emociones morales) y los deberes asociados con las funciones sociales.
3. HACIA UN MARCO ÉTICO COMPARTIDO PARA LA IA, ROBÓTICA Y SISTEMAS AUTÓNOMOS
En este contexto, el EGE llama la atención sobre los riesgos inherentes a enfoques descoordinados y desequilibrados en la regulación de la IA y las tecnologías “autónomas”. Estos mosaicos reglamentarios pueden provocar una “compraventa de ética”, lo que dio lugar a la traslocación del desarrollo y uso de la IA en regiones con estándares éticos más bajos.
Permitir que el debate esté dominado por ciertas regiones, disciplinas, demografía o actores de la industria comporta el riesgo de excluir un conjunto más amplio de intereses y perspectivas sociales.
Algunas discusiones actuales a veces también carecen de una visión general de las tecnologías “autónomas”, lo que probablemente se estudiará, desarrollará e implementará en la próxima década, dejando así un punto ciego cuando se trata de previsiones regulatorias.
4. PROPUESTAS
Esta Opinión del EGE pide el inicio de un proceso que allane el camino para un marco ético y jurídico común reconocido internacionalmente sobre el diseño, producción, uso y gobierno de la inteligencia artificial, la robótica y los llamados sistemas “autónomos”.
La declaración también propone un conjunto de principios éticos fundamentales, basados en los valores establecidos en los Tratados de la UE y la Carta de los Derechos Fundamentales de la UE, que pueden guiar su desarrollo.
Ver documento sobre "Statement on artificial intelligence, robotics and 'autonomous' systems"