Inteligencia Artificial Ética: qué es, cuáles son los principios y cómo aplicarlos

La inteligencia artificial (IA) es una tecnología que permite que máquinas y sistemas realicen tareas que normalmente requerirían inteligencia humana, como razonar, reconocer patrones, tomar decisiones, entre otras. La IA tiene el potencial de aportar beneficios en diversas áreas y sectores de la sociedad, como la salud, educación, transporte, seguridad, entre otros. Sin embargo, la IA también plantea desafíos y riesgos, como la posibilidad de reproducir o amplificar sesgos, violar la privacidad, comprometer la seguridad o afectar el empleo. Por ello, es fundamental que la IA se desarrolle y utilice de manera ética, responsable y justa, respetando los derechos humanos y las libertades civiles.

Pero, ¿qué significa ser ético en la IA? ¿Cómo asegurar que la IA se utilice para el bien y no para el mal? ¿Cuáles son los principios y valores que deben guiar el desarrollo, uso e implementación de la IA? ¿Cómo abordar los desafíos y las soluciones para la IA ética? Estas son algunas de las cuestiones que abordaremos en este artículo, cuyo objetivo es presentar el concepto, los principios y las aplicaciones de la inteligencia artificial ética.

¿Qué es la inteligência artificial ética?

La inteligencia artificial ética es un campo que estudia cómo asegurar que la IA se utilice de manera responsable, justa y transparente, de acuerdo con los principios y valores éticos de la sociedad. La inteligencia artificial ética busca evitar o minimizar los impactos negativos de la IA, como la discriminación, la exclusión, la manipulación, la explotación o la desinformación, por ejemplo. La inteligencia artificial ética también busca promover o maximizar los impactos positivos de la IA, como la inclusión, la participación, la colaboración, la innovación y la sostenibilidad.

En una era donde la IA está cada vez más presente, entender e implementar principios éticos es vital. Esto no solo mejora la confianza del público en la tecnología, sino que también asegura que sus beneficios se compartan de manera justa, evitando perjuicios o abusos.

La inteligencia artificial ética no es una disciplina aislada, sino un enfoque interdisciplinario, que involucra diferentes áreas del conocimiento, como la ciencia de la computación, la filosofía, la sociología, la psicología, el derecho, y otras. La inteligencia artificial ética tampoco es una cuestión exclusiva de los desarrolladores o los usuarios de la IA, sino una responsabilidad compartida por todos los actores involucrados en la cadena de la IA, como los investigadores, los educadores, los reguladores, los legisladores, los periodistas, los activistas, etc.

¿Cuáles son los principios y valores de la inteligencia artificial ética?

No existe un consenso universal sobre cuáles son los principios y valores de la inteligencia artificial ética, sino diversas propuestas e iniciativas que intentan definir y operacionalizar estos conceptos. Algunos ejemplos son:

  • Los Principios de Asilomar para la Investigación en Inteligencia Artificial Beneficiosa, que fueron elaborados por un grupo de expertos en 2017, y que contienen 23 principios, divididos en tres categorías: investigación, ética y valores, y cuestiones de largo plazo.
  • Las Directrices Éticas para una IA Confiable, que fueron publicadas por la Comisión Europea en 2019, y que contienen siete requisitos esenciales para una IA confiable: respeto por la dignidad humana, autonomía humana, prevención de daños, justicia, explicabilidad, robustez y seguridad, y privacidad y gobernanza de datos.
  • Los Principios de IA de la OCDE, que fueron adoptados por los países miembros de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en 2019, y que contienen cinco principios para el desarrollo y uso responsable de la IA: respeto a los valores humanos y a la democracia, beneficio para las personas y para el planeta, transparencia y responsabilidad, robustez, seguridad y protección, y diversidad, inclusión y equidad.

A pesar de la diversidad de propuestas, es posible identificar algunos principios y valores recurrentes que pueden servir como referencia para la inteligencia artificial ética. Algunos de ellos son:

  • Beneficencia: la IA debe utilizarse para promover el bienestar humano y social, contribuyendo al desarrollo sostenible y a la solución de problemas globales.
  • No maleficencia: la IA debe evitar causar daños o sufrimientos a los seres humanos y al medio ambiente, previniendo o mitigando los riesgos e impactos negativos de la IA.
  • Autonomía: la IA debe respetar la capacidad y la libertad de los seres humanos para tomar decisiones sobre sus propias vidas, garantizando el consentimiento informado y la participación activa de los usuarios y de los afectados por la IA.
  • Justicia: la IA debe utilizarse para promover la igualdad de oportunidades y de derechos, evitando o corrigiendo las desigualdades y las discriminaciones que puedan ser generadas o amplificadas por la IA.
  • Explicabilidad: la IA debe ser transparente y comprensible, permitiendo que los usuarios y los afectados por la IA sepan cómo, por qué y con qué datos funciona la IA y toma decisiones, posibilitando la verificación, la impugnación y la corrección de la IA. La explicabilidad es fundamental para construir confianza en la IA. Cuando los usuarios entienden cómo se tomó una decisión, pueden confiar más en la tecnología y en sus creadores.
  • Privacidad: la IA debe proteger los datos personales y sensibles de los usuarios y de los afectados por la IA, garantizando el control, la seguridad y la confidencialidad de estos datos, y respetando las normas y los derechos sobre la protección de datos.
  • Seguridad: la IA debe ser robusta y confiable, funcionando de manera adecuada y previsible, evitando o minimizando los fallos, los errores y las vulnerabilidades que puedan comprometer la integridad, la disponibilidad y la calidad de la IA.
Inteligência Artificial-Ética

Cómo aplicar los principios y valores de la inteligencia artificial ética

Los principios y valores de la inteligencia artificial ética deben aplicarse en todas las fases y niveles de la cadena de la IA, desde la planificación, el diseño, el desarrollo, la prueba, la implementación, el uso, la evaluación, la revisión y la desactivación de la IA. Para ello, es necesario adoptar una serie de medidas y herramientas que puedan ayudar en la implementación y en la verificación del cumplimiento de la IA con los principios y valores éticos. Algunas de estas medidas y herramientas son:

  • Códigos de conducta: son documentos que establecen las normas y las buenas prácticas que deben seguirse por los profesionales y las organizaciones involucradas en la cadena de la IA, de acuerdo con los principios y valores éticos de la IA. Algunos ejemplos son el Código de Ética Profesional de la Sociedade Brasileira de Computação y el marco PAI’s Responsible Practices for Synthetic Media de la Partnership on AI.
  • Evaluaciones de impacto: son procesos que buscan identificar, analizar y mitigar los potenciales impactos positivos y negativos de la IA sobre los derechos humanos, la sociedad y el medio ambiente, antes y después de la implementación de la IA. Algunos ejemplos son el AI Impact Assessment y el Algorithmic Impact Assessment.
  • Auditorías y certificaciones: son mecanismos que buscan verificar y certificar la conformidad de la IA con los estándares y requisitos éticos, legales y técnicos de la IA, a través de pruebas, inspecciones y validaciones independientes. Algunos ejemplos son el AI Audit Framework y el AI Certification Scheme.
  • Mecanismos de gobernanza: son estructuras e instrumentos que buscan garantizar la participación, la transparencia, la responsabilidad y la rendición de cuentas de los actores involucrados en la cadena de la IA, a través de consultas, diálogos, monitoreos y sanciones. Algunos ejemplos son el Consejo Consultivo de Ética en IA de la Comisión Europea y el Consejo Nacional de Inteligencia Artificial de Brasil (previsto en el Proyecto de Ley n° 2338, de 2023 aún en trámite en enero/2024).

Conclusión

La inteligencia artificial es una tecnología que puede traer beneficios y desafíos para la humanidad y el planeta. Por eso, es esencial que la IA se desarrolle y utilice de manera ética, responsable y justa, respetando los principios y valores de la sociedad.

En este artículo, presentamos el concepto, los principios y las aplicaciones de la inteligencia artificial ética, que es un área que estudia cómo asegurar que la IA se utilice para el bien y no para el mal. También mostramos algunas de las propuestas e iniciativas que intentan definir y operacionalizar los principios y valores éticos de la IA, como la beneficencia, la no maleficencia, la autonomía, la justicia, la explicabilidad, la privacidad y la seguridad.

Además, mostramos algunas de las medidas y herramientas que pueden ayudar en la implementación y en la verificación del cumplimiento de la IA con los principios y valores éticos, como códigos de conducta, evaluaciones de impacto, auditorías y certificaciones, y mecanismos de gobernanza.

Gracias por su atención y hasta la próxima!