A Governança de Inteligência Artificial (IA) refere-se ao conjunto de práticas, normas e diretrizes que visam garantir que as ferramentas e sistemas de IA sejam desenvolvidos e utilizados de forma ética, segura e responsável. Este tema torna-se cada vez mais relevante à medida que a IA se integra ao cotidiano da sociedade, redefinindo fronteiras em diversos campos de conhecimento e da atividade humana. A capacidade das máquinas de aprender, tomar decisões e operar de forma autônoma cria uma nova dinâmica entre seres humanos e tecnologia, impulsionando inovações em educação, indústrias, saúde e serviços[1][2][3].
Com isso, surge o desafio de como a sociedade deve lidar com a complexidade dessas inovações em IA — um problema que a governança de IA visa abordar, assegurando o respeito aos direitos humanos e prevenindo que as tecnologias perpetuem injustiças sociais. Isso é feito por meio de questões centrais como mitigação de vieses, a transparência de algoritmos e a promoção de equidade. Também são discutidas a necessidade de adaptação de políticas públicas, do setor privado e do sistema educacional para preparar as futuras gerações para uma sociedade cada vez mais tecnológica[3].
Aspectos Éticos e Sociais
Viés Algorítmico
O viés algorítmico é um fenômeno que ocorre quando algoritmos de aprendizado de máquina produzem resultados injustos ou discriminatórios devido a erros sistemáticos em seus dados de treinamento. Estudos demonstram que a IA pode amplificar vieses sociais existentes, resultando em discriminação sistêmica[4]. Um dos vieses mais comuns a serem abordados está relacionado a questões raciais e estereótipos, bem como à exclusão de pessoas com base em sua origem étnica ou posição socioeconômica. Por isso, a integração de diferentes bases de dados para o treinamento, teste e validação de sistemas de IA em instituições públicas e privadas é fundamental para garantir revisões periódicas e a constante atualização dos resultados obtidos[5]. A necessidade de combater o viés algorítmico é fundamental para que a tecnologia cumpra seu propósito de melhorar as condições de vida.
Discriminação
A IA tende a perpetuar desigualdades sociais, uma vez que muitas vezes aprende a partir de bases de dados que refletem preconceitos e desigualdades existentes[6]. Um exemplo prático de discriminação por IA ocorre em processos de recrutamento e seleção, onde seu uso pode perpetuar padrões semelhantes entre os candidatos escolhidos, prejudicando a inclusão de minorias ou grupos com pouca representação. Isso contribui para tornar a organização cada vez mais homogênea, comprometendo a diversidade frequentemente promovida como bandeira no discurso de muitas empresas[7]. A regulação jurídica da IA é necessária para evitar a discriminação e garantir que as tecnologias sejam utilizadas de forma justa e equitativa[8].
Privacidade
A proteção da privacidade é um aspecto crucial na governança da IA. As capacidades únicas da IA introduzem novos tipos de riscos à privacidade. Por exemplo, sua habilidade de identificar atividades de indivíduos mesmo com vídeos de baixa qualidade e de prever resultados futuros gera preocupações inéditas no processamento de informações. A IA também cria uma nova categoria de riscos associada à pseudociência da frenologia/fisiognomia, ao permitir a construção de classificadores infundados que correlacionam atributos físicos com traços sociais, emocionais e de personalidade. Além disso, a IA amplia os riscos de disseminação de dados por sua capacidade de gerar mídia realista e semelhante à humana, como vídeos falsos hiper-realistas de pessoas. Tecnologias de IA podem levar a uma vigilância mais invasiva e em maior escala do que antes, agravar problemas de uso secundário de dados, exclusão, insegurança, exposição não autorizada e acessibilidade aumentada no processamento e compartilhamento de informações pessoais. Elas também ampliam as formas de invasão do espaço pessoal dos indivíduos, tornando os desafios de proteção de privacidade ainda mais complexos[9].
Desemprego
A automação impulsionada pela IA tem o potencial de eliminar milhões de empregos em diversos setores, como processamento de dados e contabilidade. Um relatório do Fórum Econômico Mundial de 2020 estima que até 85 milhões de empregos podem ser perdidos devido à automação[10]. No entanto, a automação também pode criar novas oportunidades de emprego em setores emergentes, impulsionando o crescimento econômico[11].
Desigualdade
A implementação da IA pode acentuar desigualdades sociais existentes, especialmente em contextos onde o acesso à tecnologia é desigual. A interação entre o mundo digital e o real exige uma reavaliação das políticas públicas para garantir que a IA promova equidade e inclusão social[12].
Casos Reais
Viés Algorítmico
Um exemplo marcante de viés algorítmico ocorreu em 2018, no setor de recursos humanos, quando a Amazon implementou um sistema de IA para analisar currículos e selecionar candidatos automaticamente. No entanto, o algoritmo apresentava discriminação contra mulheres, pois foi treinado com dados históricos que refletiam a predominância masculina na indústria de tecnologia. Como consequência, candidatas do sexo feminino recebiam pontuações mais baixas.[8]
Outro caso emblemático aconteceu nos Estados Unidos, onde o sistema de IA COMPAS foi empregado para prever a probabilidade de reincidência de réus no sistema judicial. Pesquisas apontaram que o COMPAS frequentemente classificava de forma injusta réus negros como de alto risco de reincidência, enquanto subestimava o risco associado a réus brancos. Esse viés resultou em decisões mais severas para determinados grupos, perpetuando desigualdades raciais no sistema de justiça.[8]
Discriminação
Uma mulher negra nos Estados Unidos foi erroneamente identificada como criminosa por um sistema de reconhecimento facial baseado em IA, o caso ocorreu em 2020 e está diretamente ligado aos problemas de viés em sistemas de reconhecimento facial usados por autoridades policiais. A mulher, Porcha Woodruff, foi acusada injustamente de um roubo que não cometeu, baseado unicamente na correspondência feita por um algoritmo de reconhecimento facial. evidenciando vieses raciais presentes nesses sistemas, causando assim a discriminação baseado em como o modelo foi treinado.[13]
No Brasil ocorreu um caso similar com a Thaís Santos em um evento em Aracaju(SE), Thais foi abordada devido a um erro de identificação da IA utilizada pela polícia.[14]
Privacidade
O uso inadequado de IA pode levar à coleta e processamento indevidos de dados pessoais, comprometendo a privacidade dos indivíduos. Estudos destacam a importância de uma governança robusta para proteger informações sensíveis no ambiente de trabalho. O próprio Chat GPT utiliza as informações fornecidas no chat para treinar seu modelo de IA[15][16]
Desemprego
O Fundo Monetário Internacional (FMI) alertou que a IA pode afetar 40% dos empregos globalmente, com algumas funções sendo completamente automatizadas, resultando em desemprego e exigindo requalificação da força de trabalho.[17]
Desigualdade
A adoção de IA sem medidas adequadas pode aprofundar desigualdades existentes, especialmente se os benefícios da tecnologia não forem distribuídos equitativamente. É crucial implementar políticas que assegurem que a IA contribua para a equidade social.[18][19]
Estruturas e Modelos de Governança
Normas e Regulamentações
Europa
O Regulamento Geral sobre a Proteção de Dados (GDPR) da União Europeia, criado em 2016, incorpora diretrizes que visam proteger os dados pessoais dos usuários em um ambiente cada vez mais dominado pela IA[20]. A coleta de dados deve ser realizada com o consentimento explícito dos usuários, garantindo que suas informações sejam tratadas de maneira ética. A GDPR também versa sobre a transparência na tomada de decisões automatizadas, incluindo o direito de obter uma explicação sobre a lógica envolvida, que afeta também o uso de IA[21]. Em 2024, surge o Regulamento sobre Inteligência Artificial da União Europeia, sendo o primeiro marco legal focado em inteligência artificial. Visa assegurar que os sistemas de IA sejam desenvolvidos e utilizados de forma responsável, aplicando-se tanto a fornecedores quanto a implementadores de sistemas de IA. O foco principal foi no gerenciamento de riscos, criando uma estrutura governamental para lidar com aplicações de alto risco, tanto em nível continental quanto em nível nacional[22].
Brasil
A Lei Geral de Proteção de Dados Pessoais, promulgada em 2018, assim como a GDPR, possui diretrizes sobre transparência de algoritmos e o direito de receber explicações pelo controlador dos dados sobre a lógica por trás das decisões automatizadas[23]. Sobre leis mais específicas sobre IA temos o Projeto de Lei 2.338/2023, que substitui o PL 21/2020, e trata-se de um marco regulatório para desenvolvimento e uso de IA, prevendo proteção a obras artísticas e criadores de conteúdo. Esse PL tem um propósito bem parecido com o Regulamento sobre Inteligência Artificial da União Europeia, classificando sistemas de inteligência artificial de acordo com o risco, levando em conta o impacto na vida humana e nos direitos fundamentais[24].
Estados Unidos
Nos EUA, temos a Executive Order on AI (2023) que promove a pesquisa e desenvolvimento de IA no país, com foco em garantir que a IA seja usada de forma ética e segura, dispondo de diversas diretrizes. Esse documento propôs, entre outras coisas, o desenvolvimento de uma política nacional de IA e incentivou a colaboração entre os setores público e privado[25]. Além disso, a NIST lançou em 2024 uma estrutura de gerenciamento de riscos para organizações associadas com IA, focado em melhorar a confiabilidade de sistemas desenvolvidos[26]. No congresso estadunidense, em 2020, também tivemos diversas leis sobre governança de IA, estabelecendo diretrizes de como os órgãos públicos deveriam agir em projetos utilizando IA, além de promover seu uso para melhorar serviços públicos, fomentar pesquisas, desenvolvimento e implementação da tecnologia no país, sempre levando em conta suas consequências e estabelecendo padrões éticos, com foco na transparência e no impacto social[27][28].
Iniciativas de Organizações Internacionais
Organizações internacionais, como a ONU e a UNESCO, têm avançado na criação de diretrizes globais para a governança da IA. A UNESCO, por exemplo, aprovou a Recomendação sobre a Ética da Inteligência Artificial, que estabelece um marco de ação global para garantir que a IA seja utilizada de maneira ética e responsável[29].
Iniciativa do Serviço Nacional de Saúde do Reino Unido, o NHS AI Lab é um modelo de governança focado em tecnologias de IA, com o foco em criar um ambiente de fomento de ferramentas e inovações focados na área de saúde e assistência social[30]. Um exemplo de projeto bem-sucedido desse modelo de governança foi um modelo de IA capaz de detectar retinopatia diabética em exames oftalmológicos[31]. A governança de IA aplicada inclui auditorias frequentes e a revisão de viés nos dados usados para treinar os modelos, garantindo que diferentes grupos populacionais sejam representados adequadamente. O uso responsável da tecnologia, regulado por diretrizes éticas de transparência e consentimento informado, resultou em diagnósticos mais rápidos e precisos para pacientes em larga escala[32].
Desafios e Oportunidades
Limitações na Regulamentação
A regulamentação da IA enfrenta desafios significativos devido à natureza multifacetada e à rapidez com que a tecnologia se desenvolve. Primeiramente, a diversidade de aplicações de IA é vasta, abrangendo desde a personalização de conteúdo em plataformas digitais até a tomada de decisões críticas em setores como saúde e justiça. Essa amplitude torna complexa a tarefa de criar regulamentações específicas e eficazes que abordem adequadamente as preocupações éticas e de governança em cada contexto.
Além disso, a rápida evolução tecnológica da IA cria um ambiente em constante mudança, onde as leis muitas vezes não conseguem acompanhar o ritmo das inovações. Isso resulta em lacunas regulatórias, onde tecnologias emergentes operam em áreas cinzentas, não claramente abordadas pela legislação existente. As propostas regulatórias, tentando abraçar a vasta gama de aplicações de IA, acabam sendo genéricas demais, o que pode diluir sua eficácia e deixar de capturar os aspectos únicos de determinados usos da IA que requerem supervisão mais rigorosa[33][34].
A governança de IA é essencial para promover inovações que aliam tecnologia avançada a princípios éticos sólidos. A integração desses princípios durante o desenvolvimento de aplicações de IA é crucial para prevenir vieses discriminatórios, salvaguardar a privacidade dos usuários e manter a confiança pública. Auditorias algorítmicas e transparência nos processos são medidas práticas que ajudam a assegurar que os sistemas de IA sejam justos e equitativos.
Além das medidas técnicas, a governança de IA envolve a capacitação dos profissionais da área e o diálogo com a sociedade civil. Essas ações colaborativas buscam criar diretrizes inclusivas e justas, garantindo que a IA seja uma ferramenta de empoderamento social. Ao adotarem práticas éticas, as empresas não apenas atendem às expectativas regulatórias e de mercado, mas também contribuem para um ecossistema tecnológico mais responsável e alinhado com o bem-estar social[35][36].
Referências
- ↑ Stryker, Cole (28 de novembro de 2023). «O que é governança de IA?». IBM
- ↑ «O que é Governança de IA?». DataCamp. 5 de setembro de 2024
- ↑ a b Santos, Silvana (2024). «Desvendando horizontes: explorando as possibilidades da inteligência artificial no século XXI». REVISTA OBSERVATORIO DE LA ECONOMIA LATINOAMERICANA. 22 (2): 01-15
- ↑ «Viés Algorítmico»
- ↑ Divino, Sthéfano (2022). «ESTRATÉGIA BRASILEIRA DE INTELIGÊNCIA ARTIFICIAL (EBIA) E POLÍTICAS PÚBLICAS: PROPOSTAS PARA EFETIVAÇÃO DOS EIXOS LEGISLAÇÃO, REGULAÇÃO E USO ÉTICO E GOVERNANÇA DE IA». E-Legis − Revista Eletrônica Do Programa De Pós-Graduação Da Câmara Dos Deputados. 15 (39): 45-78
- ↑ «Inteligência Artificial e Preconceitos»
- ↑ Blumen, Daniel (Mar–Abr 2023). «Dimensões do uso de tecnologia e Inteligência Artificial (IA) em Recrutamento e Seleção (R&S): benefícios, tendências e resistências». Cadernos EBAPE-BR. 21 (2): 1-16
- ↑ a b c Gonçalves, Mariana (12 de setembro de 2024). «Viés algorítmico e discriminação: Como os algoritmos de IA podem perpetuar e amplificar vieses sociais». Migalhas
- ↑ Lee, Hao-Ping; Yang, Yu Ju; von Davier, Thomas Serban; Forlizzi, Jodi L; Das, Sauvik (11 de maio de 2024). «Deepfakes, Phrenology, Surveillance, and More! A Taxonomy of AI Privacy Risks». CHI '24: Proceedings of the 2024 CHI Conference on Human Factors in Computing Systems (em inglês) (775): 1-19
- ↑ Cavallini, Marta (21 de outubro de 2020). «Automação deve acabar com 85 milhões de empregos nos próximos 5 anos, diz relatório do Fórum Econômico Mundial». G1
- ↑ «Quais são os impactos sociais e econômicos da automação em larga escala nas indústrias?». 28 de agosto de 2024
- ↑ Fernandes, Miguel (4 de novembro de 2024). «Inteligência artificial corre o risco de acentuar desigualdade social no Brasil». EXAME
- ↑ Kasulis Cho, Kelly (7 de agosto de 2023). «Woman sues Detroit after facial recognition mistakes her for crime suspect». Consultado em 5 de janeiro de 2025
- ↑ Lobato, Alícia (23 de novembro de 2023). «Confundida com criminosa por 'Inteligência Artificial' denuncia racismo: "Discriminada por ser pobre e preta"». Data Privacy Brasil Research. Consultado em 6 de janeiro de 2025
- ↑ «Política de Privacidade». openai.com. Consultado em 6 de janeiro de 2025
- ↑ «O Uso de Dados Pessoais e Inteligência artificial na relação de trabalho» (PDF)
- ↑ Toh, Michelle. «Inteligência artificial deve afetar 40% dos empregos no mundo, diz FMI». CNN Brasil. Consultado em 6 de janeiro de 2025
- ↑ «Os efeitos da inteligência artificial na vida profissional das mulheres» (PDF)
- ↑ Oquendo, Catalina (31 de julho de 2024). «"La Inteligencia Artificial no piensa, no aprende, no decide"». El País América (em espanhol). Consultado em 6 de janeiro de 2025
- ↑ «Garantindo a Privacidade em Sistemas de IA»
- ↑ «Art. 22 GDPR – Automated individual decision-making, including profiling». General Data Protection Regulation (GDPR) (em inglês). Consultado em 5 de janeiro de 2025
- ↑ «AI Act | Shaping Europe's digital future». digital-strategy.ec.europa.eu (em inglês). 12 de dezembro de 2024. Consultado em 5 de janeiro de 2025
- ↑ «L13709». www.planalto.gov.br. Consultado em 5 de janeiro de 2025
- ↑ «Senado aprova regulamentação da inteligência artificial; texto vai à Câmara». Senado Federal. Consultado em 5 de janeiro de 2025
- ↑ House, The White (30 de outubro de 2023). «Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence». The White House (em inglês). Consultado em 5 de janeiro de 2025
- ↑ «AI Risk Management Framework». NIST (em inglês). 12 de julho de 2021. Consultado em 5 de janeiro de 2025
- ↑ Rep. McNerney, Jerry [D-CA-9 (15 de setembro de 2020). «H.R.2575 - 116th Congress (2019-2020): AI in Government Act of 2020». www.congress.gov. Consultado em 5 de janeiro de 2025
- ↑ Rep. Johnson, Eddie Bernice [D-TX-30 (12 de março de 2020). «H.R.6216 - 116th Congress (2019-2020): National Artificial Intelligence Initiative Act of 2020». www.congress.gov. Consultado em 5 de janeiro de 2025
- ↑ «Recomendação sobre Ética da IA»
- ↑ «The NHS AI Lab». NHS Transformation Directorate (em inglês). Consultado em 5 de janeiro de 2025
- ↑ London, King's College. «NHS data enables AI model for optimising diabetic eye screening». King's College London (em inglês). Consultado em 5 de janeiro de 2025
- ↑ «The AI Ethics Initiative». NHS Transformation Directorate (em inglês). Consultado em 5 de janeiro de 2025
- ↑ «Seis desafios que impedem a regulamentação da IA no Brasil». Olhar Digital. 21 de outubro de 2023
- ↑ Cots, Márcio (4 de junho de 2024). «Regulamentação da IA no Brasil: cenário atual e desafios». ITFórum
- ↑ Micheletti, Nicole. «Governança de IA: Um catalisador para a transformação empresarial». CodeBit
- ↑ «Governança e Ética em IA». Instituto Nacional de Proteção de Dados (INPD). 7 de dezembro de 2023