Regulamentação da Inteligência Artificial (IA)

No dia 15 de Julho na reunião de verão da Associação Nacional de Governadores nos Estados Unidos, Elon Musk Fundador da SpaceX e da Tesla deu enfase que o governo precisa regular a inteligência artificial (IA) agora, antes de se tornar perigoso para a humanidade.
“Eu tenho exposição à IA de ponta, e acho que as pessoas deveriam estar realmente preocupadas com isso”, disse Musk aos participantes da reunião de verão da Associação Nacional de Governadores. “Eu continuo tocando o sino de alarme, mas até que as pessoas vejam robôs indo na rua matando pessoas, eles não sabem como reagir, porque parece tão etéreo”.
Se, em vez disso, o governo espera até que a IA realmente comente prejudicar as pessoas antes de impor regulamentos, que já podem ser muito tarde, disse Musk. Esta não é a primeira vez que Musk alertou sobre o potencial de desapontamento da IA; Em 2014, ele chamou IA de “maior ameaça existencial” da humanidade, e em 2015, ele, juntamente com outros luminosos da tecnologia, aconselharam as Nações Unidas a proibir os robôs assassinos.
Musk não é o único cientista a tocar sinos de alarme sobre a IA. O físico Stephen Hawking alertou que IA poderia acabar com a humanidade em diversas ocasiões. Stephen Hawking também afirmou que a inteligência artificial tem o potencial de ser o exterminador da cultura humana. Ele disse que poderia ser “o melhor ou o pior que acontecerá com a humanidade”, na conferência de abertura na inauguração do Centro Leverhulme da Universidade de Cambridge, em 19 de outubro de 2016.
No entanto, nem todos os cientistas estão convencidos dos perigos da IA. Michael Littman, cientista de informática da Brown University, pensa que a visão de um futuro em que os seres humanos são escravizados pelos senhores de robôs é puramente ficção científica.
Além de Michael Littman outras pessoas acreditam que essas preocupações são excessivas como Mark Zuckerberg fundador do Facebook, uma vez paralelo à IA com a invenção da aeronave: se nossos antepassados, há 200 anos, tivessem medo do colapso e do fracasso, não estaríamos voando em aviões hoje. Olhando para a história, toda tecnologia revolucionária, seja a energia atômica ou a engenharia genética, subiu à sua posição em meio a dúvidas e preocupações, mas nenhuma catapultou a sociedade humana ao caos e a raça humana sobreviveu. Este é o argumento feito por Mark Zuckerberg para sugerir que as preocupações expressadas sobre AI não passam de ruído.

Com essas chamadas de atenção a organização de pesquisa e divulgação baseada em voluntários de Boston, Future of Life Institute (FLI), organizou uma importante reunião com o objetivo de concordar com diretrizes para orientar o desenvolvimento da IA em uma direção positiva. O objetivo declarado dos 23 princípios do FLI é fornecer “um quadro para ajudar a inteligência artificial a beneficiar o maior número possível de pessoas”.

A Conferência

Os princípios do FLI ficaram conhecidos como os 23 princípios Asilomar, o nome foi dado por causa do local onde ocorreu a primeira conferência. Os 23 princípios de Asilomar já foram aprovados por cerca de 2.300 pessoas, incluindo 880 pesquisadores de robótica e IA. Os partidários notáveis ​​incluem o físico Stephen Hawking, o CEO da SpaceX, Elon Musk, o futurista Ray Kurzweil e o co-fundador da Skype, Jaan Tallinn, entre muitos outros.
As discussões foram muitas vezes contestadas durante a conferência, mas finalmente surgiu um alto nível de consenso. Os organizadores do FLI só aceitaram um princípio se pelo menos 90% dos participantes concordassem com isso.
Os princípios foram organizados em três seções: ética e valores, questões de pesquisa e questões de longo prazo. A ética e os valores incluíram a necessidade de garantir a segurança em todas as etapas do desenvolvimento da IA, a indução de valores humanos na mente da máquina, a prevenção de uma corrida armamentista de IA e a necessidade de manter o controle humano.  Sob pesquisa, os princípios incluíam a necessidade de criar “inteligência benéfica” em oposição a “inteligência não direcionada” e conselhos para desenvolvedores de IA manter um diálogo saudável com os decisores políticos. As considerações a longo prazo incluíram avaliações de risco, medidas de controle e adesão ao chamado “cautela de capacidade” – um aviso de que nunca devemos subestimar o poder potencial da IA avançada.

23 Princípios de Asilomar

Questões de Pesquisa

1) Objetivo da pesquisa: o objetivo da pesquisa de IA deve ser criar inteligência benéfica, e não inteligência não-direcionada.
2) Financiamento da pesquisa: os investimentos em IA devem ser acompanhados de financiamento para pesquisas sobre o seu uso benéfico, incluindo questões espinhosas em ciência da computação, economia, direito, ética e estudos sociais, tais como:
  • Como podemos tornar os sistemas de IA futuros altamente robustos, para que façam o que queremos sem ter um mau funcionamento ou ser pirateados?
  • Como podemos aumentar a nossa prosperidade através da automação, mantendo os recursos e o propósito das pessoas?
  • Como podemos atualizar nossos sistemas legais para serem mais justos e eficientes, para acompanhar a IA e gerenciar os riscos associados à IA?
  • Qual o conjunto de valores com o qual IA deve ser alinhado, e que status legal e ético deve ter?
3) Link Ciência-Política: deve haver um intercâmbio construtivo e saudável entre pesquisadores de IA e decisores políticos.
4) Cultura de pesquisa: uma cultura de cooperação, confiança e transparência deve ser promovida entre pesquisadores e desenvolvedores de IA.
5) Prevenção de corrida: as equipes que desenvolvem sistemas de IA devem cooperar ativamente para evitar o corte de esquina nos padrões de segurança.

 

Ética e Valores

6) Segurança: os sistemas IA devem ser seguros e seguros ao longo de sua vida operacional, e verificável, quando aplicável e viável.
7) Transparência de falha: se um sistema de IA causar danos, deve ser possível verificar o porquê.
8) Transparência judiciária: qualquer envolvimento de um sistema autônomo na tomada de decisões judiciais deve fornecer uma explicação satisfatória e auditável por uma autoridade humana competente.
9) Responsabilidade: designers e construtores de sistemas avançados de IA são partes interessadas nas implicações morais de seu uso, uso indevido e ações, com a responsabilidade e a oportunidade de moldar essas implicações.
10) Alinhamento do valor: os sistemas IA altamente autônomos devem ser projetados para que seus objetivos e comportamentos possam ser assegurados para se alinhar com os valores humanos ao longo de sua operação.
11) Valores humanos: os sistemas de IA devem ser projetados e operados de forma a serem compatíveis com ideais de dignidade humana, direitos, liberdades e diversidade cultural.
12) Privacidade pessoal: as pessoas devem ter o direito de acessar, gerenciar e controlar os dados que geram, dado o poder dos sistemas IA para analisar e utilizar esses dados.
13) Liberdade e Privacidade: A aplicação de IA a dados pessoais não deve restringir injustificadamente a liberdade real ou percebida das pessoas.
14)  Benefício Compartilhado: as tecnologias IA devem beneficiar e capacitar o maior número possível de pessoas.
15) Prosperidade compartilhada: a prosperidade econômica criada pela IA deve ser compartilhada de forma ampla, para beneficiar toda a humanidade.
16)  Controle humano: os seres humanos devem escolher como e se delegar decisões aos sistemas de IA, para atingir os objetivos escolhidos pelos humanos.
17) Não subversão: o poder conferido pelo controle de sistemas de IA altamente avançados deve respeitar e melhorar, em vez de subverter, os processos sociais e cívicos dos quais depende a saúde da sociedade.
18) Corrida Armamentista de IA: uma corrida armamentista em armas autônomas letais deve ser evitada.

 

Questões a Longo Prazo

19) Capacidade Cuidado: Não havendo consenso, devemos evitar fortes pressupostos em relação aos limites superiores das capacidades futuras de IA.
20) Importância: A IA avançada poderia representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos compatíveis.
21) Riscos: os riscos colocados pelos sistemas de IA, especialmente riscos catastróficos ou existenciais, devem estar sujeitos a planejamento e mitigação de esforços proporcionais ao impacto esperado.
22) Auto-aperfeiçoamento recursivo: sistemas IA concebidos para auto-melhorar de forma recursiva ou auto-replicar de uma forma que poderia levar a uma qualidade ou quantidade de rápido aumento devem estar sujeitos a medidas rigorosas de segurança e controle.
23) Bem comum: a superinteligência só deve ser desenvolvida ao serviço de ideais éticos amplamente compartilhados e em benefício de toda a humanidade, em vez de um estado ou organização.

 

Fonte: Paris Innovation Review , Future of Life Institute , The Verge.

Gostou do post ? Então siga as nossas redes sócias:

Facebook – Twitter

0 Comentários

Envie uma Resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

*

CONTACT US

We're not around right now. But you can send us an email and we'll get back to you, asap.

Enviando

© [2017] Blog da Inovação - Tecnologia, Criatividade, Inovação .

Fazer login com suas credenciais

Esqueceu sua senha?