Governança de Inteligência Artificial

A Governança de Inteligência Artificial (IA) refere-se ao conjunto de práticas, normas e diretrizes que visam garantir que as ferramentas e sistemas de IA sejam desenvolvidos e utilizados de forma ética, segura e responsável. Este tema torna-se cada vez mais relevante à medida que a IA se integra ao cotidiano da sociedade, redefinindo fronteiras em diversos campos de conhecimento e da atividade humana. A capacidade das máquinas de aprender, tomar decisões e operar de forma autônoma cria uma nova dinâmica entre seres humanos e tecnologia, impulsionando inovações em educação, indústrias, saúde e serviços[1][2][3].

Com isso, surge o desafio de como a sociedade deve lidar com a complexidade dessas inovações em IA — um problema que a governança de IA visa abordar, assegurando o respeito aos direitos humanos e prevenindo que as tecnologias perpetuem injustiças sociais. Isso é feito por meio de questões centrais como mitigação de vieses, a transparência de algoritmos e a promoção de equidade. Também são discutidas a necessidade de adaptação de políticas públicas, do setor privado e do sistema educacional para preparar as futuras gerações para uma sociedade cada vez mais tecnológica[3].

Aspectos Éticos e Sociais

Viés Algorítmico

O viés algorítmico é um fenômeno que ocorre quando algoritmos de aprendizado de máquina produzem resultados injustos ou discriminatórios devido a erros sistemáticos em seus dados de treinamento. Estudos demonstram que a IA pode amplificar vieses sociais existentes, resultando em discriminação sistêmica[4]. Um dos vieses mais comuns a serem abordados está relacionado a questões raciais e estereótipos, bem como à exclusão de pessoas com base em sua origem étnica ou posição socioeconômica. Por isso, a integração de diferentes bases de dados para o treinamento, teste e validação de sistemas de IA em instituições públicas e privadas é fundamental para garantir revisões periódicas e a constante atualização dos resultados obtidos[5]. A necessidade de combater o viés algorítmico é fundamental para que a tecnologia cumpra seu propósito de melhorar as condições de vida.

Discriminação

A IA tende a perpetuar desigualdades sociais, uma vez que muitas vezes aprende a partir de bases de dados que refletem preconceitos e desigualdades existentes[6]. Um exemplo prático de discriminação por IA ocorre em processos de recrutamento e seleção, onde seu uso pode perpetuar padrões semelhantes entre os candidatos escolhidos, prejudicando a inclusão de minorias ou grupos com pouca representação. Isso contribui para tornar a organização cada vez mais homogênea, comprometendo a diversidade frequentemente promovida como bandeira no discurso de muitas empresas[7]. A regulação jurídica da IA é necessária para evitar a discriminação e garantir que as tecnologias sejam utilizadas de forma justa e equitativa[8].

Privacidade

A proteção da privacidade é um aspecto crucial na governança da IA. As capacidades únicas da IA introduzem novos tipos de riscos à privacidade. Por exemplo, sua habilidade de identificar atividades de indivíduos mesmo com vídeos de baixa qualidade e de prever resultados futuros gera preocupações inéditas no processamento de informações. A IA também cria uma nova categoria de riscos associada à pseudociência da frenologia/fisiognomia, ao permitir a construção de classificadores infundados que correlacionam atributos físicos com traços sociais, emocionais e de personalidade. Além disso, a IA amplia os riscos de disseminação de dados por sua capacidade de gerar mídia realista e semelhante à humana, como vídeos falsos hiper-realistas de pessoas. Tecnologias de IA podem levar a uma vigilância mais invasiva e em maior escala do que antes, agravar problemas de uso secundário de dados, exclusão, insegurança, exposição não autorizada e acessibilidade aumentada no processamento e compartilhamento de informações pessoais. Elas também ampliam as formas de invasão do espaço pessoal dos indivíduos, tornando os desafios de proteção de privacidade ainda mais complexos[9].

Desemprego

A automação impulsionada pela IA tem o potencial de eliminar milhões de empregos em diversos setores, como processamento de dados e contabilidade. Um relatório do Fórum Econômico Mundial de 2020 estima que até 85 milhões de empregos podem ser perdidos devido à automação[10]. No entanto, a automação também pode criar novas oportunidades de emprego em setores emergentes, impulsionando o crescimento econômico[11].

Desigualdade

A implementação da IA pode acentuar desigualdades sociais existentes, especialmente em contextos onde o acesso à tecnologia é desigual. A interação entre o mundo digital e o real exige uma reavaliação das políticas públicas para garantir que a IA promova equidade e inclusão social[12].

Casos Reais

Viés Algorítmico

Um exemplo marcante de viés algorítmico ocorreu em 2018, no setor de recursos humanos, quando a Amazon implementou um sistema de IA para analisar currículos e selecionar candidatos automaticamente. No entanto, o algoritmo apresentava discriminação contra mulheres, pois foi treinado com dados históricos que refletiam a predominância masculina na indústria de tecnologia. Como consequência, candidatas do sexo feminino recebiam pontuações mais baixas.[8]

Outro caso emblemático aconteceu nos Estados Unidos, onde o sistema de IA COMPAS foi empregado para prever a probabilidade de reincidência de réus no sistema judicial. Pesquisas apontaram que o COMPAS frequentemente classificava de forma injusta réus negros como de alto risco de reincidência, enquanto subestimava o risco associado a réus brancos. Esse viés resultou em decisões mais severas para determinados grupos, perpetuando desigualdades raciais no sistema de justiça.[8]

Discriminação

Uma mulher negra nos Estados Unidos foi erroneamente identificada como criminosa por um sistema de reconhecimento facial baseado em IA, o caso ocorreu em 2020 e está diretamente ligado aos problemas de viés em sistemas de reconhecimento facial usados por autoridades policiais. A mulher, Porcha Woodruff, foi acusada injustamente de um roubo que não cometeu, baseado unicamente na correspondência feita por um algoritmo de reconhecimento facial. evidenciando vieses raciais presentes nesses sistemas, causando assim a discriminação baseado em como o modelo foi treinado.[13]

No Brasil ocorreu um caso similar com a Thaís Santos em um evento em Aracaju(SE), Thais foi abordada devido a um erro de identificação da IA utilizada pela polícia.[14]

Privacidade

O uso inadequado de IA pode levar à coleta e processamento indevidos de dados pessoais, comprometendo a privacidade dos indivíduos. Estudos destacam a importância de uma governança robusta para proteger informações sensíveis no ambiente de trabalho. O próprio Chat GPT utiliza as informações fornecidas no chat para treinar seu modelo de IA[15][16]

Desemprego

O Fundo Monetário Internacional (FMI) alertou que a IA pode afetar 40% dos empregos globalmente, com algumas funções sendo completamente automatizadas, resultando em desemprego e exigindo requalificação da força de trabalho.[17]

Desigualdade

A adoção de IA sem medidas adequadas pode aprofundar desigualdades existentes, especialmente se os benefícios da tecnologia não forem distribuídos equitativamente. É crucial implementar políticas que assegurem que a IA contribua para a equidade social.[18][19]

Estruturas e Modelos de Governança

Normas e Regulamentações

Europa

O Regulamento Geral sobre a Proteção de Dados (GDPR) da União Europeia, criado em 2016, incorpora diretrizes que visam proteger os dados pessoais dos usuários em um ambiente cada vez mais dominado pela IA[20]. A coleta de dados deve ser realizada com o consentimento explícito dos usuários, garantindo que suas informações sejam tratadas de maneira ética. A GDPR também versa sobre a transparência na tomada de decisões automatizadas, incluindo o direito de obter uma explicação sobre a lógica envolvida, que afeta também o uso de IA[21]. Em 2024, surge o Regulamento sobre Inteligência Artificial da União Europeia, sendo o primeiro marco legal focado em inteligência artificial. Visa assegurar que os sistemas de IA sejam desenvolvidos e utilizados de forma responsável, aplicando-se tanto a fornecedores quanto a implementadores de sistemas de IA. O foco principal foi no gerenciamento de riscos, criando uma estrutura governamental para lidar com aplicações de alto risco, tanto em nível continental quanto em nível nacional[22].

Brasil

A Lei Geral de Proteção de Dados Pessoais, promulgada em 2018, assim como a GDPR, possui diretrizes sobre transparência de algoritmos e o direito de receber explicações pelo controlador dos dados sobre a lógica por trás das decisões automatizadas[23]. Sobre leis mais específicas sobre IA temos o Projeto de Lei 2.338/2023, que substitui o PL 21/2020, e trata-se de um marco regulatório para desenvolvimento e uso de IA, prevendo proteção a obras artísticas e criadores de conteúdo. Esse PL tem um propósito bem parecido com o Regulamento sobre Inteligência Artificial da União Europeia, classificando sistemas de inteligência artificial de acordo com o risco, levando em conta o impacto na vida humana e nos direitos fundamentais[24].

Estados Unidos

Nos EUA, temos a Executive Order on AI (2023) que promove a pesquisa e desenvolvimento de IA no país, com foco em garantir que a IA seja usada de forma ética e segura, dispondo de diversas diretrizes. Esse documento propôs, entre outras coisas, o desenvolvimento de uma política nacional de IA e incentivou a colaboração entre os setores público e privado[25]. Além disso, a NIST lançou em 2024 uma estrutura de gerenciamento de riscos para organizações associadas com IA, focado em melhorar a confiabilidade de sistemas desenvolvidos[26]. No congresso estadunidense, em 2020, também tivemos diversas leis sobre governança de IA, estabelecendo diretrizes de como os órgãos públicos deveriam agir em projetos utilizando IA, além de promover seu uso para melhorar serviços públicos, fomentar pesquisas, desenvolvimento e implementação da tecnologia no país, sempre levando em conta suas consequências e estabelecendo padrões éticos, com foco na transparência e no impacto social[27][28].

Iniciativas de Organizações Internacionais

Organizações internacionais, como a ONU e a UNESCO, têm avançado na criação de diretrizes globais para a governança da IA. A UNESCO, por exemplo, aprovou a Recomendação sobre a Ética da Inteligência Artificial, que estabelece um marco de ação global para garantir que a IA seja utilizada de maneira ética e responsável[29].

NHS AI Lab

Iniciativa do Serviço Nacional de Saúde do Reino Unido, o NHS AI Lab é um modelo de governança focado em tecnologias de IA, com o foco em criar um ambiente de fomento de ferramentas e inovações focados na área de saúde e assistência social[30]. Um exemplo de projeto bem-sucedido desse modelo de governança foi um modelo de IA capaz de detectar retinopatia diabética em exames oftalmológicos[31]. A governança de IA aplicada inclui auditorias frequentes e a revisão de viés nos dados usados para treinar os modelos, garantindo que diferentes grupos populacionais sejam representados adequadamente. O uso responsável da tecnologia, regulado por diretrizes éticas de transparência e consentimento informado, resultou em diagnósticos mais rápidos e precisos para pacientes em larga escala[32].

Desafios e Oportunidades

Limitações na Regulamentação

A regulamentação da IA enfrenta desafios significativos devido à natureza multifacetada e à rapidez com que a tecnologia se desenvolve. Primeiramente, a diversidade de aplicações de IA é vasta, abrangendo desde a personalização de conteúdo em plataformas digitais até a tomada de decisões críticas em setores como saúde e justiça. Essa amplitude torna complexa a tarefa de criar regulamentações específicas e eficazes que abordem adequadamente as preocupações éticas e de governança em cada contexto.

Além disso, a rápida evolução tecnológica da IA cria um ambiente em constante mudança, onde as leis muitas vezes não conseguem acompanhar o ritmo das inovações. Isso resulta em lacunas regulatórias, onde tecnologias emergentes operam em áreas cinzentas, não claramente abordadas pela legislação existente. As propostas regulatórias, tentando abraçar a vasta gama de aplicações de IA, acabam sendo genéricas demais, o que pode diluir sua eficácia e deixar de capturar os aspectos únicos de determinados usos da IA que requerem supervisão mais rigorosa[33][34].

Promoção de Inovações Éticas e Responsáveis

A governança de IA é essencial para promover inovações que aliam tecnologia avançada a princípios éticos sólidos. A integração desses princípios durante o desenvolvimento de aplicações de IA é crucial para prevenir vieses discriminatórios, salvaguardar a privacidade dos usuários e manter a confiança pública. Auditorias algorítmicas e transparência nos processos são medidas práticas que ajudam a assegurar que os sistemas de IA sejam justos e equitativos.

Além das medidas técnicas, a governança de IA envolve a capacitação dos profissionais da área e o diálogo com a sociedade civil. Essas ações colaborativas buscam criar diretrizes inclusivas e justas, garantindo que a IA seja uma ferramenta de empoderamento social. Ao adotarem práticas éticas, as empresas não apenas atendem às expectativas regulatórias e de mercado, mas também contribuem para um ecossistema tecnológico mais responsável e alinhado com o bem-estar social[35][36].

Referências

  1. Stryker, Cole (28 de novembro de 2023). «O que é governança de IA?». IBM 
  2. «O que é Governança de IA?». DataCamp. 5 de setembro de 2024 
  3. a b Santos, Silvana (2024). «Desvendando horizontes: explorando as possibilidades da inteligência artificial no século XXI». REVISTA OBSERVATORIO DE LA ECONOMIA LATINOAMERICANA. 22 (2): 01-15 
  4. «Viés Algorítmico» 
  5. Divino, Sthéfano (2022). «ESTRATÉGIA BRASILEIRA DE INTELIGÊNCIA ARTIFICIAL (EBIA) E POLÍTICAS PÚBLICAS: PROPOSTAS PARA EFETIVAÇÃO DOS EIXOS LEGISLAÇÃO, REGULAÇÃO E USO ÉTICO E GOVERNANÇA DE IA». E-Legis − Revista Eletrônica Do Programa De Pós-Graduação Da Câmara Dos Deputados. 15 (39): 45-78 
  6. «Inteligência Artificial e Preconceitos» 
  7. Blumen, Daniel (Mar–Abr 2023). «Dimensões do uso de tecnologia e Inteligência Artificial (IA) em Recrutamento e Seleção (R&S): benefícios, tendências e resistências». Cadernos EBAPE-BR. 21 (2): 1-16 
  8. a b c Gonçalves, Mariana (12 de setembro de 2024). «Viés algorítmico e discriminação: Como os algoritmos de IA podem perpetuar e amplificar vieses sociais». Migalhas 
  9. Lee, Hao-Ping; Yang, Yu Ju; von Davier, Thomas Serban; Forlizzi, Jodi L; Das, Sauvik (11 de maio de 2024). «Deepfakes, Phrenology, Surveillance, and More! A Taxonomy of AI Privacy Risks». CHI '24: Proceedings of the 2024 CHI Conference on Human Factors in Computing Systems (em inglês) (775): 1-19 
  10. Cavallini, Marta (21 de outubro de 2020). «Automação deve acabar com 85 milhões de empregos nos próximos 5 anos, diz relatório do Fórum Econômico Mundial». G1 
  11. «Quais são os impactos sociais e econômicos da automação em larga escala nas indústrias?». 28 de agosto de 2024 
  12. Fernandes, Miguel (4 de novembro de 2024). «Inteligência artificial corre o risco de acentuar desigualdade social no Brasil». EXAME 
  13. Kasulis Cho, Kelly (7 de agosto de 2023). «Woman sues Detroit after facial recognition mistakes her for crime suspect». Consultado em 5 de janeiro de 2025 
  14. Lobato, Alícia (23 de novembro de 2023). «Confundida com criminosa por 'Inteligência Artificial' denuncia racismo: "Discriminada por ser pobre e preta"». Data Privacy Brasil Research. Consultado em 6 de janeiro de 2025 
  15. «Política de Privacidade». openai.com. Consultado em 6 de janeiro de 2025 
  16. «O Uso de Dados Pessoais e Inteligência artificial na relação de trabalho» (PDF) 
  17. Toh, Michelle. «Inteligência artificial deve afetar 40% dos empregos no mundo, diz FMI». CNN Brasil. Consultado em 6 de janeiro de 2025 
  18. «Os efeitos da inteligência artificial na vida profissional das mulheres» (PDF) 
  19. Oquendo, Catalina (31 de julho de 2024). «"La Inteligencia Artificial no piensa, no aprende, no decide"». El País América (em espanhol). Consultado em 6 de janeiro de 2025 
  20. «Garantindo a Privacidade em Sistemas de IA» 
  21. «Art. 22 GDPR – Automated individual decision-making, including profiling». General Data Protection Regulation (GDPR) (em inglês). Consultado em 5 de janeiro de 2025 
  22. «AI Act | Shaping Europe's digital future». digital-strategy.ec.europa.eu (em inglês). 12 de dezembro de 2024. Consultado em 5 de janeiro de 2025 
  23. «L13709». www.planalto.gov.br. Consultado em 5 de janeiro de 2025 
  24. «Senado aprova regulamentação da inteligência artificial; texto vai à Câmara». Senado Federal. Consultado em 5 de janeiro de 2025 
  25. House, The White (30 de outubro de 2023). «Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence». The White House (em inglês). Consultado em 5 de janeiro de 2025 
  26. «AI Risk Management Framework». NIST (em inglês). 12 de julho de 2021. Consultado em 5 de janeiro de 2025 
  27. Rep. McNerney, Jerry [D-CA-9 (15 de setembro de 2020). «H.R.2575 - 116th Congress (2019-2020): AI in Government Act of 2020». www.congress.gov. Consultado em 5 de janeiro de 2025 
  28. Rep. Johnson, Eddie Bernice [D-TX-30 (12 de março de 2020). «H.R.6216 - 116th Congress (2019-2020): National Artificial Intelligence Initiative Act of 2020». www.congress.gov. Consultado em 5 de janeiro de 2025 
  29. «Recomendação sobre Ética da IA» 
  30. «The NHS AI Lab». NHS Transformation Directorate (em inglês). Consultado em 5 de janeiro de 2025 
  31. London, King's College. «NHS data enables AI model for optimising diabetic eye screening». King's College London (em inglês). Consultado em 5 de janeiro de 2025 
  32. «The AI Ethics Initiative». NHS Transformation Directorate (em inglês). Consultado em 5 de janeiro de 2025 
  33. «Seis desafios que impedem a regulamentação da IA no Brasil». Olhar Digital. 21 de outubro de 2023 
  34. Cots, Márcio (4 de junho de 2024). «Regulamentação da IA no Brasil: cenário atual e desafios». ITFórum 
  35. Micheletti, Nicole. «Governança de IA: Um catalisador para a transformação empresarial». CodeBit 
  36. «Governança e Ética em IA». Instituto Nacional de Proteção de Dados (INPD). 7 de dezembro de 2023