Inteligência Artificial Ética: o que é, quais são os princípios e como aplicá-los
A inteligência artificial (IA) é uma tecnologia que permite que máquinas e sistemas realizem tarefas que normalmente exigiriam inteligência humana, como raciocinar, reconhecer padrões, tomar decisões, entre outras. A IA tem o potencial de trazer benefícios para diversas áreas e setores da sociedade, como saúde, educação, transporte, segurança, entre outros. No entanto, a IA também traz desafios e riscos, como a possibilidade de reproduzir ou ampliar vieses, violar a privacidade, comprometer a segurança ou afetar o emprego. Por isso, é fundamental que a IA seja desenvolvida e usada de forma ética, responsável e justa, respeitando os direitos humanos e as liberdades civis.
Mas o que significa ser ético na IA? Como garantir que a IA seja usada para o bem e não para o mal? Quais são os princípios e valores que devem orientar o desenvolvimento, uso e implantação da IA? Como lidar com os desafios e as soluções para a inteligência artificial ética? Essas são algumas das questões que vamos abordar neste artigo, que tem como objetivo apresentar o conceito, os princípios e as aplicações da inteligência artificial ética.
Conteúdo do artigo
O que é inteligência artificial ética?
A inteligência artificial ética é uma área que estuda como garantir que a IA seja usada de forma responsável, justa e transparente, de acordo com os princípios e valores éticos da sociedade. A inteligência artificial ética busca evitar ou minimizar os impactos negativos da IA, como a discriminação, a exclusão, a manipulação, a exploração ou a desinformação, por exemplo. A inteligência artificial ética também busca promover ou maximizar os impactos positivos da IA, como a inclusão, a participação, a colaboração, a inovação e a sustentabilidade.
Em uma era onde a IA está cada vez mais presente, entender e implementar princípios éticos é vital. Isto não apenas melhora a confiança do público na tecnologia, mas também garante que seus benefícios sejam compartilhados de forma justa, evitando prejuízos ou abusos.
A inteligência artificial ética não é uma disciplina isolada, mas sim uma abordagem interdisciplinar, que envolve diferentes áreas do conhecimento, como a ciência da computação, a filosofia, a sociologia, a psicologia, o direito, e outras. A inteligência artificial ética também não é uma questão exclusiva dos desenvolvedores ou dos usuários da IA, mas sim uma responsabilidade compartilhada por todos os atores envolvidos na cadeia da IA, como os pesquisadores, os educadores, os reguladores, os legisladores, os jornalistas, os ativistas, etc.
Quais são os princípios e valores da inteligência artificial ética?
Não existe um consenso universal sobre quais são os princípios e valores da inteligência artificial ética, mas sim diversas propostas e iniciativas que tentam definir e operacionalizar esses conceitos. Alguns exemplos são:
- Os Princípios de Asilomar para a Pesquisa em Inteligência Artificial Beneficente, que foram elaborados por um grupo de especialistas em 2017, e que contêm 23 princípios, divididos em três categorias: pesquisa, ética e valores, e questões de longo prazo.
- As Diretrizes Éticas para uma IA Confiável, que foram publicadas pela Comissão Europeia em 2019, e que contêm sete requisitos essenciais para uma IA confiável: respeito pela dignidade humana, autonomia humana, prevenção de danos, justiça, explicabilidade, robustez e segurança, e privacidade e governança de dados.
- Os Princípios de IA da OCDE, que foram adotados pelos países membros da Organização para a Cooperação e Desenvolvimento Econômico (OCDE) em 2019, e que contêm cinco princípios para o desenvolvimento e uso responsável da IA: respeito aos valores humanos e à democracia, benefício para as pessoas e para o planeta, transparência e responsabilidade, robustez, segurança e proteção, e diversidade, inclusão e equidade.
Apesar da diversidade de propostas, é possível identificar alguns princípios e valores que são recorrentes e que podem servir como referência para a inteligência artificial ética. Alguns deles são:
- Beneficência: a IA deve ser usada para promover o bem-estar humano e social, contribuindo para o desenvolvimento sustentável e para a solução de problemas globais.
- Não maleficência: a IA deve evitar causar danos ou sofrimentos aos seres humanos e ao meio ambiente, prevenindo ou mitigando os riscos e os impactos negativos da IA.
- Autonomia: a IA deve respeitar a capacidade e a liberdade dos seres humanos de tomar decisões sobre suas próprias vidas, garantindo o consentimento informado e a participação ativa dos usuários e dos afetados pela IA.
- Justiça: a IA deve ser usada para promover a igualdade de oportunidades e de direitos, evitando ou corrigindo as desigualdades e as discriminações que possam ser geradas ou ampliadas pela IA.
- Explicabilidade: a IA deve ser transparente e compreensível, permitindo que os usuários e os afetados pela IA saibam como, por que e com quais dados a IA funciona e toma decisões, possibilitando a verificação, a contestação e a correção da IA. A explicabilidade é fundamental para construir a confiança na IA. Quando os usuários entendem como uma decisão foi tomada, eles podem confiar mais na tecnologia e em seus criadores.
- Privacidade: a IA deve proteger os dados pessoais e sensíveis dos usuários e dos afetados pela IA, garantindo o controle, a segurança e a confidencialidade desses dados, e respeitando as normas e os direitos sobre a proteção de dados.
- Segurança: a IA deve ser robusta e confiável, funcionando de forma adequada e previsível, evitando ou minimizando as falhas, os erros e as vulnerabilidades que possam comprometer a integridade, a disponibilidade e a qualidade da IA.
Como aplicar os princípios e valores da inteligência artificial ética?
Os princípios e valores da inteligência artificial ética devem ser aplicados em todas as fases e em todos os níveis da cadeia da IA, desde o planejamento, o design, o desenvolvimento, o teste, a implantação, o uso, a avaliação, a revisão e a desativação da IA. Para isso, é preciso adotar uma série de medidas e ferramentas que possam auxiliar na implementação e na verificação da conformidade da IA com os princípios e valores éticos. Algumas dessas medidas e ferramentas são:
- Códigos de conduta: são documentos que estabelecem as normas e as boas práticas que devem ser seguidas pelos profissionais e pelas organizações envolvidas na cadeia da IA, de acordo com os princípios e valores éticos da IA. Alguns exemplos são o Código de Ética Profissional da Sociedade Brasileira de Computação e o Framework PAI’s Responsible Practices for Synthetic Media da Partnership on AI.
- Avaliações de impacto: são processos que visam identificar, analisar e mitigar os potenciais impactos positivos e negativos da IA sobre os direitos humanos, a sociedade e o meio ambiente, antes e depois da implantação da IA. Alguns exemplos são o AI Impact Assessment e o Algorithmic Impact Assessment.
- Auditorias e certificações: são mecanismos que visam verificar e atestar a conformidade da IA com os padrões e os requisitos éticos, legais e técnicos da IA, por meio de testes, inspeções e validações independentes. Alguns exemplos são o AI Audit Framework e o AI Certification Scheme.
- Mecanismos de governança: são estruturas e instrumentos que visam garantir a participação, a transparência, a responsabilidade e a prestação de contas dos atores envolvidos na cadeia da IA, por meio de consultas, diálogos, monitoramentos e sanções. Alguns exemplos são o Conselho Consultivo de Ética em IA da Comissão Europeia e o Conselho Nacional de Inteligência Artificial do Brasil (previsto em Projeto de Lei n° 2338, de 2023 ainda em tramitação em janeiro/2024).
Conclusão
A inteligência artificial é uma tecnologia que pode trazer benefícios e desafios para a humanidade e para o planeta. Por isso, é essencial que a IA seja desenvolvida e usada de forma ética, responsável e justa, respeitando os princípios e valores da sociedade.
Neste artigo, apresentamos o conceito, os princípios e as aplicações da inteligência artificial ética, que é uma área que estuda como garantir que a IA seja usada para o bem e não para o mal. Também mostramos algumas das propostas e iniciativas que tentam definir e operacionalizar os princípios e valores éticos da IA, como beneficência, não maleficência, autonomia, justiça, explicabilidade, privacidade e segurança.
Além disso, mostramos algumas das medidas e ferramentas que podem auxiliar na implementação e na verificação da conformidade da IA com os princípios e valores éticos, como códigos de conduta, avaliações de impacto, auditorias e certificações, e mecanismos de governança.
Obrigado pela sua atenção e até a próxima!