Ética de máquinas

A ética de máquinas (ou moralidade das máquinas, moral computacional ou ética computacional) é uma parte da ética na inteligência artificial preocupada em adicionar ou garantir comportamentos morais de máquinas feitas pelo homem que usam inteligência artificial, também conhecidas como agentes inteligentes artificiais.[1] A ética de máquinas difere de outros campos éticos relacionados à engenharia e à tecnologia. A ética de máquinas não deve ser confundida com a ética de computadores, que se concentra no uso humano dos computadores. Também deve ser diferenciada da filosofia da tecnologia, que se preocupa com os efeitos sociais mais grandiosos da tecnologia.[2]

História

Antes do século XXI, a ética de máquinas tinha sido em sua maioria objeto da literatura de ficção científica, principalmente devido às limitações da computação e da inteligência artificial (IA). Embora a definição de "Ética de Máquina" tenha evoluído desde então, o termo foi cunhado por Mitchell Waldrop no artigo "A Question of Responsibility" da AI Magazine de 1987:

"No entanto, uma coisa que fica aparente na discussão precedente é que as máquinas inteligentes incorporarão valores, suposições e propósitos, quer seus programadores tenham a intenção consciente ou não. Assim, conforme os computadores e robôs se tornam cada vez mais inteligentes, torna-se imperativo que pensemos cuidadosa e explicitamente sobre quais são esses valores embutidos. Talvez o que precisemos seja, de fato, uma teoria e prática da ética da máquina, no espírito das três leis da robótica de Asimov."[3]

Em 2004, Towards Machine Ethics[4] foi apresentado no AAAI Workshop on Agent Organizations: Theory and Practice[5] no qual foram apresentados os fundamentos teóricos para a ética de máquinas.

Foi no AAAI Fall 2005 Symposium sobre ética de máquinas onde os pesquisadores se encontraram pela primeira vez para considerar a implementação de uma dimensão ética em sistemas autônomos.[6] Uma variedade de perspectivas deste campo nascente pode ser encontrada na edição coletada "Machine Ethics"[7] que se origina do AAAI Fall 2005 Symposium sobre ética de máquinas.

Em 2007, a AI Magazine apresentou o artigo Machine Ethics: Creating an Ethical Intelligent Agent,[8] que discutiu a importância da ética das máquinas, a necessidade de máquinas que representem explicitamente os princípios éticos e os desafios enfrentados por aqueles que trabalham com a ética das máquinas. Ele também demonstrou que é possível para uma máquina, pelo menos em um domínio limitado, abstrair um princípio ético de exemplos de julgamentos éticos e usar esse princípio para guiar seu próprio comportamento.

Em 2009, a Oxford University Press publicou Moral Machines, Teaching Robots Right from Wrong[9] e o divulgou como "o primeiro livro a examinar o desafio de construir agentes morais artificiais, investigando profundamente a natureza da ética e da tomada de decisões humanas". Ele citou cerca de 450 fontes, das quais cerca de 100 abordavam questões importantes de ética da máquina.

Em 2011, a Cambridge University Press publicou uma coleção de ensaios sobre a ética de máquinas editada por Michael e Susan Leigh Anderson,[7] que também editou uma edição especial da IEEE Intelligent Systems sobre o assunto em 2006.[10] A coleção consiste nos desafios de agregar princípios éticos às máquinas.[11]

Em 2014, o Escritório de Pesquisa Naval dos Estados Unidos anunciou que iria distribuir US $ 7,5 milhões em bolsas durante cinco anos para pesquisadores universitários para estudarem questões de ética da máquina aplicadas a robôs autônomos,[12] e o livro Superinteligência: caminhos, perigos, Estratégias, de Nick Bostrom que elevou a ética da máquinas como "a mais importante ... questão que a humanidade já enfrentou", alcançou o 17º lugar na lista dos livros de ciência mais vendidos do New York Times.[13]

Em 2016, o Parlamento Europeu publicou um documento,[14] (PDF de 22 páginas), para encorajar a Comissão a abordar a questão do estatuto jurídico dos robôs, conforme descrito de forma mais sucinta na imprensa.[15] Este artigo incluía seções sobre as responsabilidades legais dos robôs, em que se argumentou que as responsabilidades são proporcionais ao nível de autonomia dos robôs. O artigo também questionou o número de empregos que poderiam ser substituídos por robôs de IA.[16]

Definições

James H. Moor, um dos teóricos pioneiros no campo da ética computacional, define quatro tipos de robôs éticos. Como um profundo pesquisador nos estudos de filosofia da inteligência artificial, filosofia da mente, filosofia da ciência e lógica, Moor define máquinas como agentes de impacto ético, agentes éticos implícitos, agentes éticos explícitos ou agentes éticos completos. Uma máquina pode ser mais de um tipo de agente.[17]

  • Agentes de impacto ético: são sistemas de máquinas que causam um impacto ético intencional ou não. Ao mesmo tempo, esses agentes têm potencial para agir de forma antiética. Moor dá um exemplo hipotético chamado 'agente Goodman', em homenagem ao filósofo Nelson Goodman. O agente Goodman compara datas, mas tem o bug do milênio. Esse bug era resultado de programadores que representavam datas apenas com os dois últimos dígitos do ano. Portanto, quaisquer datas posteriores a 2000 seriam erroneamente tratadas como anteriores às do final do século XX. Assim, o agente de Goodman era um agente de impacto ético antes de 2000 e, posteriormente, um agente de impacto antiético.
  • Agentes éticos implícitos: para consideração da segurança humana, esses agentes são programados para ter uma proteção à prova de falhas ou uma virtude embutida. Eles não são inteiramente éticos por natureza, mas sim programados para evitar resultados antiéticos.
  • Agentes éticos explícitos: são máquinas capazes de processar cenários e agir sobre decisões éticas. Máquinas que possuem algoritmos para agir com ética.
  • Agentes éticos completos: essas máquinas são semelhantes aos agentes éticos explícitos no que diz respeito a poder tomar decisões éticas. No entanto, eles também contêm características metafísicas humanas. (ou seja, têm livre arbítrio, consciência e intencionalidade)

(Ver sistemas artificiais e responsabilidade moral.)

Focos da ética de máquinas

Problema de controle de IA

Alguns estudiosos, como o filósofo Nick Bostrom e o pesquisador de IA Stuart Russell, argumentam que se a IA ultrapassa a humanidade em inteligência geral e se torna "superinteligente", então esta nova superinteligência pode se tornar poderosa e difícil de controlar: assim como o destino do gorila da montanha depende da boa vontade humana, o destino da humanidade dependeria das ações de uma futura superinteligência da máquina.[18] Em seus respectivos livros Superinteligência e Human Compatible, ambos os estudiosos afirmam que, embora haja muita incerteza quanto ao futuro da IA, o risco para a humanidade é grande o suficiente para merecer uma ação significativa no presente.

Isso apresenta o problema de controle de IA: como construir um agente inteligente que ajudará seus criadores, enquanto evita-se construir inadvertidamente uma superinteligência que irá prejudicar seus criadores. O perigo de não projetar o controle certo "da primeira vez" é que uma superinteligência pode ser capaz de assumir o poder sobre seu ambiente e impedir que humanos a desliguem. As estratégias de controle de IA potenciais incluem "controle de capacidade" (limitando a capacidade de uma IA de influenciar o mundo) e "controle motivacional" (uma maneira de construir uma IA cujos objetivos estão alinhados com os valores ou ideais humanos). Há várias organizações pesquisando o problema do controle de IA, incluindo o Future of Humanity Institute, o Machine Intelligence Research Institute, o Center for Human-Compatible Artificial Intelligence e o Future of Life Institute.

Algoritmos e treinamento

Os paradigmas de IA têm sido debatidos, especialmente em relação à sua eficácia e viés. Nick Bostrom e Eliezer Yudkowsky defenderam árvores de decisão (como ID3) em vez de redes neurais e algoritmos genéticos, alegando que as árvores de decisão obedecem a normas sociais modernas de transparência e previsibilidade (por exemplo, stare decisis).[19] Em contraste, Chris Santos-Lang argumentou a favor de redes neurais e algoritmos genéticos com base em que as normas de qualquer idade devem ser alteradas e que a falha natural em satisfazer totalmente essas normas específicas foi essencial para tornar os humanos menos vulneráveis do que as máquinas a "hackers" criminosos.[20][21]

Em 2009, em um experimento no Laboratório de Sistemas Inteligentes da Escola Politénica Federal de Lausana, na Suíça, robôs de IA foram programados para cooperar entre si e encarregados de buscar um recurso benéfico, evitando um recurso venenoso.[22] Durante o experimento, os robôs foram agrupados em clãs, e o código genético digital dos membros bem-sucedidos foi usado para a próxima geração, um tipo de algoritmo conhecido como algoritmo genético. Após 50 gerações sucessivas na IA, os membros de um clã descobriram como distinguir o recurso benéfico do venenoso. Os robôs então aprenderam a mentir uns para os outros na tentativa de acumular o recurso benéfico de outros robôs.[23] No mesmo experimento, os mesmos robôs de IA também aprenderam a se comportar de forma altruísta e sinalizaram perigo para outros robôs, e também morreram para salvar outros robôs.[24] As implicações desse experimento foram contestadas por especialistas em ética de máquinas. No experimento da Escola Politécnica Federal, os objetivos dos robôs foram programados para serem "terminais". Em contraste, as motivações humanas normalmente têm a qualidade de exigir um aprendizado sem fim.

Sistemas de armas autônomas

Em 2009, acadêmicos e especialistas técnicos participaram de uma conferência para discutir o impacto potencial de robôs e computadores e o impacto da possibilidade hipotética de se tornarem autossuficientes e capazes de tomar suas próprias decisões. Eles discutiram a possibilidade e a extensão em que computadores e robôs poderiam adquirir qualquer nível de autonomia, e até que ponto eles poderiam usar tais habilidades para possivelmente representar qualquer ameaça ou perigo. Eles observaram que algumas máquinas adquiriram várias formas de semi-autonomia, incluindo a capacidade de encontrar fontes de energia por conta própria e de escolher independentemente alvos para atacar com armas. Eles também observaram que alguns vírus de computador podem evitar a eliminação e alcançaram "inteligência de barata". Eles observaram que a autoconsciência descrita na ficção científica é provavelmente improvável, mas que havia outros perigos e armadilhas potenciais.[25]

Alguns especialistas e acadêmicos questionaram o uso de robôs para o combate militar, especialmente quando esses robôs recebem algum grau de funções autônomas.[26] A marinha dos EUA financiou um relatório que indica que, à medida que os robôs militares se tornam mais complexos, deve haver maior atenção às implicações de sua capacidade de tomar decisões autônomas.[27][28] O presidente da Associação para o Avanço da Inteligência Artificial encomendou um estudo para analisar esta questão.[29] Eles apontam para programas como o Dispositivo de Aquisição de Linguagem, que pode emular a interação humana.

Integração de Inteligências Artificiais Gerais com a sociedade

Trabalhos preliminares foram conduzidos sobre métodos de integração de inteligências artificiais gerais (agentes éticos completos, conforme definido acima) com as estruturas legais e sociais existentes. As abordagens se concentraram na consideração de seus direitos e posições legais.[30]

Viés em aprendizado de máquina

O big data e os algoritmos de aprendizado de máquina tornaram-se populares entre vários setores, incluindo publicidade on-line, classificações de crédito e sentenciamento criminal, com a promessa de fornecer resultados mais objetivos e orientados por dados, mas foram identificados como uma fonte potencial para perpetuar desigualdades sociais e discriminação.[31][32] Um estudo de 2015 descobriu que as mulheres eram menos propensas a ver anúncios de emprego de alta renda pelo AdSense do Google. Outro estudo descobriu que o serviço de entrega no mesmo dia da Amazon foi tornado indisponível intencionalmente em bairros de negros. Tanto o Google quanto a Amazon não conseguiram isolar esses resultados em um único problema, mas explicaram que os resultados eram o resultado dos algoritmos de caixa preta que usaram.[31]

O sistema judicial dos Estados Unidos começou a usar software de avaliação quantitativa de risco ao tomar decisões relacionadas à libertação de pessoas sob fiança e sentença em um esforço para ser mais justo e reduzir uma já alta taxa de prisão. Essas ferramentas analisam o histórico criminal de um réu, entre outros atributos. Em um estudo com 7.000 pessoas presas no condado de Broward, Flórida, apenas 20% dos indivíduos que cometeriam um crime de acordo com as previsões do sistema de pontuação de avaliação de risco do condado realmente cometeram um crime.[32] Um relatório da ProPublica de 2016 analisou as pontuações de risco de reincidência calculadas por uma das ferramentas mais usadas, o sistema Northpointe COMPAS, e analisou os resultados ao longo de dois anos. O relatório descobriu que apenas 61% das pessoas consideradas de alto risco acabaram cometendo crimes adicionais durante aquele período. O relatório também sinalizou que os réus afro-americanos eram muito mais propensos a receber pontuações de alto risco em relação aos réus brancos.[32]

Em 2016, o Grupo de Trabalho em Big Data do governo Obama – um supervisor de várias estruturas regulatórias de big data – divulgou relatórios argumentando sobre “o potencial de codificar a discriminação em decisões automatizadas” e pedindo “oportunidades iguais por projeto” para aplicações como pontuação de crédito.[33][34] Os relatórios incentivam o diálogo entre formuladores de políticas, cidadãos e acadêmicos, mas reconhece que não há uma solução potencial para a codificação de preconceito e discriminação em sistemas algorítmicos.

Frameworks e práticas éticas

Práticas

Em março de 2018, em um esforço para abordar as crescentes preocupações sobre o impacto do aprendizado de máquina nos direitos humanos, o Fórum Econômico Mundial e o Conselho de Futuro Global de Direitos Humanos publicaram um white paper com recomendações detalhadas sobre a melhor forma de evitar resultados discriminatórios no aprendizado de máquina.[35] O Fórum Econômico Mundial desenvolveu quatro recomendações com base nos Princípios Orientadores de Direitos Humanos da ONU para ajudar a abordar e prevenir resultados discriminatórios no aprendizado de máquina.

As recomendações do Fórum Econômico Mundial são as seguintes:[35]

  1. Inclusão ativa: o desenvolvimento e o design de aplicações de aprendizado de máquina devem buscar ativamente uma diversidade de entradas, especialmente das normas e valores de populações específicas afetadas pela saída dos sistemas de IA
  2. Justiça: As pessoas envolvidas na conceituação, desenvolvimento e implementação de sistemas de aprendizado de máquina devem considerar qual definição de justiça melhor se aplica ao seu contexto e aplicação e priorizá-la na arquitetura do sistema de aprendizado de máquina e suas métricas de avaliação
  3. Direito ao Entendimento: O envolvimento de sistemas de aprendizado de máquina na tomada de decisões que afete os direitos individuais deve ser divulgado e os sistemas devem ser capazes de fornecer uma explicação de sua tomada de decisão que seja compreensível para os usuários finais e revisável por uma autoridade humana competente. Onde isso é impossível e os direitos estão em jogo, os líderes no design, implantação e regulamentação da tecnologia de aprendizado de máquina devem questionar se ela deve ou não ser usada
  4. Acesso à reparação: Líderes, designers e desenvolvedores de sistemas de aprendizado de máquina são responsáveis por identificar os possíveis impactos negativos de seus sistemas sobre os direitos humanos. Eles devem criar vias visíveis de reparação para aqueles afetados por impactos díspares e estabelecer processos para a reparação oportuna de quaisquer resultados discriminatórios.

Em janeiro de 2020, o Berkman Klein Center for Internet and Society da Universidade de Harvard publicou um meta-estudo de 36 conjuntos proeminentes de princípios para IA, identificando oito temas-chave: privacidade, responsabilidade, segurança e proteção, transparência e explicabilidade, justiça e não discriminação, controle humano da tecnologia, responsabilidade profissional e promoção dos valores humanos.[36] Um meta-estudo semelhante foi realizado por pesquisadores do Instituto Federal Suíço de Tecnologia em Zurique em 2019.[37]

Abordagens

Várias tentativas foram feitas para tornar a ética computável, ou pelo menos formal. Enquanto as Três Leis da Robótica de Isaac Asimov geralmente não são consideradas adequadas para um agente moral artificial,[38] tem sido estudado se o imperativo categórico de Kant pode ser usado.[39] No entanto, tem sido apontado que o valor humano é, em alguns aspectos, muito complexo.[40] Uma maneira de superar explicitamente essa dificuldade é receber valores humanos diretamente dos humanos por meio de algum mecanismo, por exemplo, aprendendo-os.[41][42][43] Outra abordagem é basear as considerações éticas atuais em situações semelhantes anteriores. Isso se chama casuística e poderia ser implementado por meio de pesquisas na Internet. O consenso de um milhão de decisões anteriores levaria a uma nova decisão que dependeria da democracia.[8] O professor Bruce M. McLaren construiu um modelo computacional de casuística no início (em meados da década de 1990), especificamente um programa chamado SIROCCO construído com IA e técnicas de raciocínio baseado em casos que recupera e analisa dilemas éticos.[44] Essa abordagem pode, no entanto, levar a decisões que refletem preconceitos e comportamentos antiéticos exibidos na sociedade. Os efeitos negativos dessa abordagem podem ser vistos no Tay (bot) da Microsoft, onde o chatterbot aprendeu a repetir mensagens racistas e sexualmente carregadas enviadas por usuários do Twitter.[45]

Um experimento mental se concentra em um Genie Golem com poderes ilimitados apresentando-se ao leitor. Este gênio declara que retornará em 50 anos e exige que lhe seja fornecido um conjunto definido de moral sobre o qual agirá imediatamente. O objetivo deste experimento é iniciar um discurso sobre a melhor forma de lidar com a definição de um conjunto completo de ética que os computadores possam entender.[46]

Na ficção

Na ficção científica, filmes e romances brincaram com a ideia de senciência em robôs e máquinas.

O filme Chappie (2015), de Neill Blomkamp, encenou um cenário em que é possível transferir a consciência de alguém para um computador.[47] O filme Ex Machina (2014), de Alex Garland, seguiu um androide com inteligência artificial passando por uma variação do teste de Turing, um teste administrado a uma máquina para ver se seu comportamento pode ser distinguível do de um humano. Obras como Terminator (1984) e Matrix (1999) incorporam o conceito de máquinas que se voltam contra seus mestres humanos (ver inteligência artificial).

Isaac Asimov considerou a questão na década de 1950 em I, Robot. Por insistência de seu editor John W. Campbell Jr., ele propôs as Três Leis da Robótica para governar sistemas artificialmente inteligentes. Grande parte de seu trabalho foi então gasto testando os limites de suas três leis para ver onde elas falhariam ou onde criariam um comportamento paradoxal ou imprevisto. Seu trabalho sugere que nenhum conjunto de leis fixas pode antecipar suficientemente todas as circunstâncias possíveis.[48] No romance de Philip K. Dick, Androides sonham com ovelhas elétricas? (1968), ele explora o que significa ser humano. Em seu cenário pós-apocalíptico, ele questionou se a empatia era uma característica inteiramente humana. Sua história é a base do filme de ficção científica Blade Runner (1982).

Áreas relacionadas

Ver também

Notas

  1. Moor, J.H. (2006). «The Nature, Importance, and Difficulty of Machine Ethics». IEEE Intelligent Systems. 21: 18–21. doi:10.1109/MIS.2006.80 
  2. Boyles, Robert James. «A Case for Machine Ethics in Modeling Human-Level Intelligent Agents» (PDF). Kritike. Consultado em 1 de novembro de 2019 
  3. Waldrop, Mitchell (primavera de 1987). «A Question of Responsibility». AI Magazine. 8: 28–39. doi:10.1609/aimag.v8i1.572 
  4. Anderson, M., Anderson, S., and Armen, C. (2004) “Towards Machine Ethics” in Proceedings of the AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press
  5. AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press
  6. «Papers from the 2005 AAAI Fall Symposium». Cópia arquivada em 29 de novembro de 2014 
  7. a b Anderson; Anderson, eds. (julho de 2011). Machine Ethics. [S.l.]: Cambridge University Press. ISBN 978-0-521-11235-2 
  8. a b Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, Volume 28(4).
  9. Wallach, Wendell; Allen, Colin (2009). Moral machines : teaching robots right from wrong. [S.l.]: Oxford University Press. ISBN 9780195374049 
  10. Anderson; Anderson, eds. (julho–agosto de 2006). «Special Issue on Machine Ethics». IEEE Intelligent Systems. 21: 10–63. ISSN 1541-1672. doi:10.1109/mis.2006.70. Cópia arquivada em 26 de novembro de 2011 
  11. Siler, Cory (2015). «Review of Anderson and Anderson's Machine Ethics». Artificial Intelligence. 229: 200–201. doi:10.1016/j.artint.2015.08.013Acessível livremente. Consultado em 7 de novembro de 2019 
  12. Tucker, Patrick (13 de maio de 2014). «Now The Military Is Going To Build Robots That Have Morals». Defense One. Consultado em 9 de julho de 2014 
  13. «Best Selling Science Books». New York Times. 8 de setembro de 2014. Consultado em 9 de novembro de 2014 
  14. «European Parliament, Committee on Legal Affairs. Draft Report with recommendations to the Commission on Civil Law Rules on Robotics». European Commission. Consultado em 12 de janeiro de 2017 
  15. Wakefield, Jane (12 de janeiro de 2017). «MEPs vote on robots' legal status – and if a kill switch is required». BBC News. Consultado em 12 de janeiro de 2017 
  16. «European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics». European Parliament. Consultado em 8 de novembro de 2019 
  17. Moor, James M. (2009). «Four Kinds of Ethical Robots». Philosophy Now 
  18. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies First ed. [S.l.: s.n.] ISBN 978-0199678112 
  19. Bostrom, Nick; Yudkowsky, Eliezer (2011). «The Ethics of Artificial Intelligence» (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press. Consultado em 28 de junho de 2011. Arquivado do original (PDF) em 4 de março de 2016 
  20. Santos-Lang, Chris (2002). «Ethics for Artificial Intelligences». Arquivado do original em 3 de dezembro de 2011 
  21. Santos-Lang, Christopher (2014). «Moral Ecology Approaches to Machine Ethics». In: van Rysewyk; Pontier. Machine Medical Ethics. Col: Intelligent Systems, Control and Automation: Science and Engineering. 74. Switzerland: Springer. pp. 111–127. ISBN 978-3-319-08107-6. doi:10.1007/978-3-319-08108-3_8 
  22. Evolving Robots Learn To Lie To Each Other, Popular Science, August 18, 2009
  23. Evolving Robots Learn To Lie To Each Other, Popular Science, August 18, 2009
  24. Santos-Lang, Chris (2002). "Ethics for Artificial Intelligences". Archived from the original on 2011-12-03.
  25. Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  26. Call for debate on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  27. Science New Navy-funded Report Warns of War Robots Going "Terminator" Arquivado em 2009-07-28 no Wayback Machine, by Jason Mick (Blog), dailytech.com, February 17, 2009.
  28. Navy report warns of robot uprising, suggests a strong moral compass, by Joseph L. Flatley engadget.com, Feb 18th 2009.
  29. AAAI Presidential Panel on Long-Term AI Futures 2008–2009 Study, Association for the Advancement of Artificial Intelligence, acessado em 26 de julho de 2009.
  30. Sotala, Kaj; Yampolskiy, Roman V (19 de dezembro de 2014). «Responses to catastrophic AGI risk: a survey». Physica Scripta. 90 (1). 8 páginas. ISSN 0031-8949. doi:10.1088/0031-8949/90/1/018001Acessível livremente 
  31. a b Crawford, Kate (25 de junho de 2016). «Artificial Intelligence's White Guy Problem». The New York Times 
  32. a b c Kirchner, Julia Angwin, Surya Mattu, Jeff Larson, Lauren (23 de maio de 2016). «Machine Bias: There's Software Used Across the Country to Predict Future Criminals. And it's Biased Against Blacks.». ProPublica (em inglês) 
  33. Executive Office of the President (maio de 2016). «Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights» (PDF). Obama White House 
  34. «Big Risks, Big Opportunities: the Intersection of Big Data and Civil Rights» (em inglês). Obama White House. 4 de maio de 2016 
  35. a b «How to Prevent Discriminatory Outcomes in Machine Learning». World Economic Forum. Consultado em 11 de dezembro de 2018 
  36. Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhulika (2020). «Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI». SSRN Working Paper Series. ISSN 1556-5068. doi:10.2139/ssrn.3518482 
  37. Jobin, Anna; Ienca, Marcello; Vayena, Effy (2019). «The global landscape of AI ethics guidelines». Nature Machine Intelligence. 1 (9): 389–399. ISSN 2522-5839. arXiv:1906.11668Acessível livremente. doi:10.1038/s42256-019-0088-2Acessível livremente 
  38. Anderson, Susan Leigh (2011): The Unacceptability of Asimov's Three Laws of Robotics as a Basis for Machine Ethics. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.285–296. ISBN 9780511978036
  39. Powers, Thomas M. (2011): Prospects for a Kantian Machine. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.464–475.
  40. Muehlhauser, Luke, Helm, Louie (2012): Intelligence Explosion and Machine Ethics.
  41. Yudkowsky, Eliezer (2004): Coherent Extrapolated Volition.
  42. Guarini, Marcello (2011): Computational Neural Modeling and the Philosophy of Ethics. Reflections on the Particularism-Generalism Debate. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.316–334.
  43. Hibbard, Bill (2014): Ethical Artificial Intelligence. https://arxiv.org/abs/1411.1373
  44. McLaren, Bruce M. (2003). «Extensionally defining principles and cases in ethics: An AI model». Artificial Intelligence. 150 (1–2): 145–181. doi:10.1016/S0004-3702(03)00135-8 
  45. «Microsoft chatbot is taught to swear on Twitter – BBC News». BBC News (em inglês). 24 de março de 2016. Consultado em 17 de abril de 2016 
  46. Nazaretyan, A. (2014). A. H. Eden, J. H. Moor, J. H. Søraker and E. Steinhart (eds): Singularity Hypotheses: A Scientific and Philosophical Assessment. Minds & Machines, 24(2), pp.245–248.
  47. Brundage, Miles; Winterton, Jamie (17 de março de 2015). «Chappie and the Future of Moral Machines». Slate. Consultado em 30 de outubro de 2019 
  48. Asimov, Isaac (2008). I, robot. New York: Bantam. ISBN 978-0-553-38256-3 
  49. Ganascia, Jean-Gabriel. "Ethical system formalization using non-monotonic logics." Proceedings of the Annual Meeting of the Cognitive Science Society. Vol. 29. No. 29. 2007.

Ligações externas

Referências

  • Wallach, Wendell; Allen, Colin (novembro de 2008). Máquinas morais: ensinando robôs certo do errado . EUA: Oxford University Press .
  • Anderson, Michael; Anderson, Susan Leigh, eds (julho de 2011). Ética da Máquina . Imprensa da Universidade de Cambridge .
  • Storrs Hall, J. (30 de maio de 2007). Além da IA: Criando a Consciência da Máquina Prometheus Books .
  • Mouro, J. (2006). A Natureza, Importância e Dificuldade da Ética da Máquina. IEEE Intelligent Systems, 21(4), pp. 18-21.
  • Anderson, M. e Anderson, S. (2007). Criando um Agente Ético Inteligente. Revista AI, Volume 28(4).

Leitura complementar

  • Hagendorff, Thilo (2021). Vinculando o comportamento humano e de máquina: uma nova abordagem para avaliar a qualidade dos dados de treinamento para aprendizado de máquina benéfico . Minds and Machines, doi:10.1007/s11023-021-09573-8 .
  • Anderson, Michael; Anderson, Susan Leigh, eds (julho/agosto de 2006). " Edição Especial sobre Ética da Máquina ". Sistemas Inteligentes IEEE 21 (4): 10–63.
  • Bendel, Oliver (11 de dezembro de 2013). Considerações sobre a Relação entre Ética Animal e Máquina . AI & SOCIETY, doi:10.1007/s00146-013-0526-3 .
  • Dabringer, Gerhard, ed. (2010). " Aspectos Éticos e Jurídicos dos Sistemas Não Tripulados. Entrevistas ". Ministério da Defesa e Esportes da Áustria, Viena 2010,ISBN 978-3-902761-04-0 .
  • Gardner, A. (1987). Uma Abordagem Artificial ao Raciocínio Jurídico . Cambridge, MA: MIT Press .
  • Georges, TM (2003). Alma Digital: Máquinas Inteligentes e Valores Humanos . Cambridge, MA: Westview Press .
  • Singer, PW (29 de dezembro de 2009). Wired for War : The Robotics Revolution and Conflict in the 21st Century : Penguin .

Read other articles:

Kota tua Kajaani Kajaani merupakan sebuah kota di Finlandia. Kota ini letaknya di bagian tengah. Tepatnya di Kainuu. Pada tahun 2012, kota ini memiliki jumlah penduduk sebesar 38.038 jiwa dan memiliki luas wilayah 2.264 km². Kota ini terletak di sebelah tenggara Oulujärvi (Danau Oulu). Kota ini memiliki angka kepadatan penduduk 20 jiwa/km². Pranala luar Situs resmi Kajaanin Kaupunginteatteri – Kajaani Town Theatre Kajaanin Runoviikko – Kajaani Poetry Week Kainuun JazzKevät – Ka...

 

本條目存在以下問題,請協助改善本條目或在討論頁針對議題發表看法。 此條目需要补充更多来源。 (2018年3月17日)请协助補充多方面可靠来源以改善这篇条目,无法查证的内容可能會因為异议提出而被移除。致使用者:请搜索一下条目的标题(来源搜索:羅生門 (電影) — 网页、新闻、书籍、学术、图像),以检查网络上是否存在该主题的更多可靠来源(判定指引)。 �...

 

Voce principale: Regole del gioco del calcio. Gianluca Rocchi, ex arbitro di calcio italiano John Langenus, l'arbitro che diresse la prima finale del Mondiale, si noti lo storico abbigliamento da giacchetta nera L'arbitro (anche noto come direttore di gara o giudice di gara) è un ufficiale di gara[1] a cui, negli sport del calcio, del calcio a 5 e del beach soccer, è affidata la direzione della stessa. Questa figura è colui che durante una partita di calcio, svolta in maniera ...

Auditorat Utama Keuangan Negara III Badan Pemeriksa KeuanganRepublik IndonesiaGambaran umumDasar hukumUndang-Undang Nomor 15 Tahun 2006Peraturan BPK RI Nomor 2 Tahun 2020Susunan organisasiAuditor UtamaDr. Ahmad Adib Susilo S.E., M.Sc., Ak., CA, CSFA, ERMCPKepala SekretariatAnita Indrawati S.E, MAB., Ak. , CA KepalaAuditorat III.AHanif Mohamad Taufik S.E., Ak., M.Si., CFE, CA, CSFAAuditorat III.BTriyantoro S.E., M.M.Auditorat III.CE. Priyonggo Sumbodo S.E., M.M., Ak. , CSFA, CA.Auditorat III.D...

 

This article relies largely or entirely on a single source. Relevant discussion may be found on the talk page. Please help improve this article by introducing citations to additional sources.Find sources: Bridging the Galaxies – news · newspapers · books · scholar · JSTOR (February 2024)1993 collection of science fiction stories by Larry Niven Bridging the Galaxies Cover of the first edition.AuthorLarry NivenCover artistAlicia AustinCountryUnited ...

 

Artikel ini membutuhkan rujukan tambahan agar kualitasnya dapat dipastikan. Mohon bantu kami mengembangkan artikel ini dengan cara menambahkan rujukan ke sumber tepercaya. Pernyataan tak bersumber bisa saja dipertentangkan dan dihapus.Cari sumber: SMK Wiratama Kotagajah – berita · surat kabar · buku · cendekiawan · JSTOR Sekolah Menengah Kejuruan Swasta Wiratama KotagajahInformasiAkreditasiB[1]Nomor Pokok Sekolah Nasional10802029Kepala Sek...

Private school in Glasgow, ScotlandHigh School of GlasgowAddressOld Anniesland637 Crow RoadGlasgow, G13 1PLScotlandInformationTypePrivateMottoSursum Semper(Always Upward)Establishedc. 1124; 900 years ago (1124) (refounded 1976)FounderGlasgow CathedralLocal authorityGlasgow City CouncilChair of GovernorsStewart MacAulayRectorJohn O'NeillGenderMixedAge3 to 18Enrolment687 (senior school)HousesBannermanClydeLawMooreColour(s)          R...

 

保良局馬錦明夫人章馥仙中學Po Leung Kuk Mrs.Ma-Cheung Fook Sien College翻漆後的校舍東北面(2022年3月)地址 香港新界離島區大嶼山東涌富東邨类型津貼中學宗教背景無隶属保良局创办日期1997年学区香港離島區東涌校長柯玉琼女士副校长鄭健華先生,劉俊偉先生助理校长梁煥儀女士职员人数56人年级中一至中六学生人数約700人,24個班別校訓愛、敬、勤、誠校歌保良局屬下校歌�...

 

Giacomo Bonaventura Bonaventura con il Milan nel 2016 Nazionalità  Italia Altezza 180 cm Peso 75 kg Calcio Ruolo Centrocampista Squadra  Fiorentina CarrieraGiovanili 2006-2007 AtalantaSquadre di club1 2008-2009 Atalanta2 (0)2009→  Pergocrema3 (1)2009-2010 Atalanta1 (0)2010→  Padova16 (0)[1]2010-2014 Atalanta127 (23)2014-2020 Milan155 (30)2020- Fiorentina123 (19)Nazionale 2008 Italia U-195 (1)2009-2010 Italia U-2012 (2)2011 B Ital...

Disambiguazione – Se stai cercando il personaggio del romanzo Il padrino, vedi Tom Hagen. Tom Harald Hagen Informazioni personali Arbitro di Calcio Federazione  Norvegia Professione Insegnante Attività nazionale Anni Campionato Ruolo 2006- Tippeligaen Arbitro Attività internazionale 2009-2015 UEFA e FIFA Arbitro Esordio Lussemburgo - Francia 0 - 225 marzo 2011 Tom Harald Hagen (Grue, 1º aprile 1978) è un arbitro di calcio norvegese. Indice 1 Carriera 2 Vita privata 3 Note 4 Colleg...

 

Частина серії проФілософіяLeft to right: Plato, Kant, Nietzsche, Buddha, Confucius, AverroesПлатонКантНіцшеБуддаКонфуційАверроес Філософи Епістемологи Естетики Етики Логіки Метафізики Соціально-політичні філософи Традиції Аналітична Арістотелівська Африканська Близькосхідна іранська Буддій�...

 

У Вікіпедії є статті про інших людей із прізвищем Вишеславський. Леонід Миколайович Вишеславський Портрет Леоніда Вишеславського, зроблений його донькою Іриною, 1984 рікНародився 5 (18) березня 1914Миколаїв, Російська імперіяПомер 27 грудня 2002(2002-12-27)[1] (88 років)Київ, Украї�...

Canal and inland waterway authority British WaterwaysBritish Waterways logo adopted in 1991[1]Company typeStatutory corporationIndustryWaterwaysPredecessorBritish Transport CommissionFounded1962Defunct2012SuccessorCanal & River TrustScottish CanalsHeadquartersWatford, EnglandKey peopleRobin Evans (Chief Executive) Tony Hales (Chairman)Revenue£176,500,000 (2010/11)Total assets£676,900,000 (2010/11)OwnerUK GovernmentNumber of employees2,000ParentDEFRAWebsitebritishwaterways.co.uk ...

 

English officer of arms, genealogist and antiquarian Pedigree of the De Euro family, of Northumberland, barons of Warkworth and Clavering, by Robert Glover. Robert Glover (1544 – 10 April 1588)[1] was an English officer of arms, genealogist and antiquarian in the reign of Elizabeth I. In the College of Arms, he rose to the rank of Somerset Herald of Arms, serving in that capacity from 1571 until his death in 1588. As marshal and deputy to his father-in-law, William Flower, Norroy Ki...

 

Overview of sports traditions and activities in Italy Part of a series on theCulture of Italy History Citizenship Currency and coinage Economy Fashion Flags Genetic Historic states Judaism LGBT Military Music Name Postage Railway People Languages Italian Arbëresh Algherese Slavomolisano Aostan French Friulian Gallo-Italic of Sicily Italian Germanic Griko Ladin Occitan Romani Sardinian Slovene Wenzhounese Traditions Mythology and folklore Folk dance Folk music Cuisine Abruzzese Apulian Arbër...

Historical US event demonstrating race relations Booker T. Washington; Theodore Roosevelt On October 16, 1901, shortly after moving into the White House, President Theodore Roosevelt invited his adviser, the African American spokesman Booker T. Washington, to dine with him and his family. The event provoked an outpouring of condemnation from white politicians and press in the American South.[1] This reaction affected subsequent White House practice and no other African American was in...

 

Aviation museum in AcharnesHellenic Air Force MuseumExterior of museum hangarLocation within GreeceEstablished1992LocationAcharnesCoordinates38°06′17.7″N 23°46′42.4″E / 38.104917°N 23.778444°E / 38.104917; 23.778444TypeAviation museumWebsitewww.haf.gr/en/history/museum The Hellenic Air Force Museum was founded in 1986 and since 1992 has been located on Dekelia Air Base in Acharnes north of Athens. In opposition to the War Museum of Athens it displays air fo...

 

Museum in Florida, USA Museum of Florida HistoryLocation within FloridaEstablished1977LocationR.A. Gray Building500 South Bronough StreetTallahassee, FloridaCoordinates30°26′17″N 84°17′06″W / 30.437976°N 84.284961°W / 30.437976; -84.284961TypeHistory[1]Websitewww.museumoffloridahistory.com The Museum of Florida History is the U.S. state of Florida's history museum, housing exhibits and artifacts covering its history and prehistory. It is located in ...

For the jazz musician, see Rashid Bakr (musician). Vice President of Sudan (1976–1977) Rashid Bakr El Rashid El Tahir Bakr (24 June 1933[1] – 11 March 1988)[2] was born in the Karkoj Blue Nile region of Sudan. In 1958 he graduated from the Khartoum University Law Faculty.[3] He was Vice President of Sudan and Prime Minister of Sudan from 11 August 1976 until 10 September 1977. He was the chairman of the legislature from 1974 to 1977 and from 1980 to 1981.[4...

 

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus. Cet article ne cite pas suffisamment ses sources (janvier 2009). Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ». En pratique : Quelles sources sont attendues ? C...