Mensageiro Sideral

De onde viemos, onde estamos e para onde vamos

 -

Salvador Nogueira é jornalista de ciência e autor de 11 livros

Perfil completo

Publicidade

Pesquisadores elaboram princípios éticos para que inteligência artificial não destrua a humanidade

Por Salvador Nogueira

Já faz algum tempo que pessoas do calibre de Stephen Hawking e Elon Musk têm apontado que o desenvolvimento cada vez mais acelerado da inteligência artificial pode muito bem ser o maior e mais premente risco ao futuro da humanidade. Agora, um vasto grupo de pesquisadores e apoiadores estabeleceu um conjunto de princípios para nortear a pesquisa sobre IA e evitar que isso aconteça, potencializando ao máximo os ganhos que ela pode trazer ao mundo.

Os Princípios de Inteligência Artificial de Asilomar foram estabelecidos durante a conferência batizada de Beneficial AI 2017 (Inteligência Artificial Benéfica 2017), organizada em Asilomar, na Califórnia, entre os dias 5 e 8 de janeiro deste ano. Organizada pelo Instituto Futuro da Vida, nos EUA, foi a segunda conferência sobre o tema — a primeira aconteceu em 2015, em Porto Rico.

A partir de agora, os cientistas envolvidos com o desenvolvimento de inteligência artificial, seja em universidades, empresas ou institutos militares, têm princípios claros para guiá-los eticamente. Eles não têm força de lei, claro, mas receberam apoio consensual de um grande número de pesquisadores, após terem sido objeto de muitos debates e reformulações.

“Após discussões tão detalhadas, espinhosas e algumas vezes contenciosas e uma ampla variedade de feedbacks, ficamos francamente surpresos com o alto nível de consenso que emergiu em torno de muitas das propostas durante a pesquisa final”, escreveram os organizadores. “Esse consenso nos permitiu estabelecer um patamar alto para a inclusão na lista final: só retivemos princípios que tiveram apoio de pelo menos 90% dos presentes.”

O documento foi assinado por um número expressivo de pesquisadores de robótica e inteligência artificial — até o momento 575 –, dentre eles Peter Norvig e Ray Kurzweil, do Google, e Francesca Rossi e Guru Banavar, da IBM. Entre outros de seus signatários ilustres estão os físicos Stephen Hawking e Max Tegmark, o inventor Elon Musk e o ator Joseph Gordon-Levitt.

Confira abaixo os 23 princípios estabelecidos para garantir que o futuro da pesquisa em IA seja em favor da humanidade, e não de sua extinção.

 

A inteligência artificial já forneceu ferramentas benéficas que são usadas todos os dias por pessoas no mundo todo. Seu contínuo desenvolvimento, guiado pelos princípios a seguir, ofererá oportunidades incríveis para ajudar e empoderar pessoas por décadas e séculos vindouros.

Questões de pesquisa

1) Meta de pesquisa: A meta da pesquisa em IA deve ser criar não inteligência não direcionada, mas inteligência benéfica.

2) Financiamento de pesquisa: Investimentos em IA devem ser acompanhados por financiamento para pesquisas que garantam seu uso benéfico, incluindo questões espinhosas em ciência da computação, economia, direito, ética e estudos sociais, como:

– Como podemos fazer sistemas futuros de IA altamente robustos, de forma que eles façam o que queremos sem defeitos ou serem hackeados?

– Como podemos aumentar nossa properidade através da automação enquanto mantemos os recursos e o propósito das pessoas?

– Como podemos atualizar nossos sistemas de leis para serem mais justos e eficientes, acompanharem o avanço da IA, e gerenciem os riscos associados com a IA?

– Com que conjunto de valores a IA deveria estar alinhada, e que status ético e legal ela deveria ter?

3) Elo ciência-política: Deve haver intercâmbio construtivo e saudável entre pesquisadores de IA e formuladores de políticas.

4) Cultura de pesquisa: Uma cultura de cooperação, confiança e transparência deve ser cultivada entre os pesquisadores e desenvolvedores de IA.

5) Prevenção de corridas: Equipes desenvolvendo sistemas de IA devem cooperar ativamente para evitar aparar arestas em padrões de segurança.

Ética e valores

6) Segurança: Sistemas de IA devem ser seguros e preservados durante todo o seu tempo de vida operacional, e de forma verificável quando aplicável e praticável.

7) Transparência de falhas: Se um sistema de IA causar mal, deve ser possível determinar por quê.

8) Transparência de julgamento: Qualquer envolvimento por um sistema autônomo no juízo da tomada de decisões deve fornecer uma explicação satisfatória auditável por uma autoridade humana competente.

9) Responsabilidade: Projetistas e construtores de sistemas de IA avançados são partícipes nas implicações morais de seu uso, mal uso e ações, com uma responsabilidade e oportunidade de moldar essas implicações.

10) Alinhamento de valores: Sistemas de IA altamente autônomos devem ser projetados de forma que suas metas e seus comportamentos possam asseguradamente se alinhar com valores humanos durante todo o tempo de sua operação.

11) Valores humanos: Sistemas de IA devem ser desenhados e operados de modo a ser compatíveis com os ideais de dignidade humana, direitos, liberdades e diversidade cultural.

12) Privacidade pessoal: As pessoas devem ter o direito ao acesso, gerenciamento e controle dos dados que elas geram, dado o poder que os sistemas de IA têm de analisar e utilizar esses dados.

13) Liberdade e privacidade: A aplicação de IA a dados pessoais não pode de forma irrazoável restringir a liberdade real ou percebida de uma pessoa.

14) Benefício compartilhado: Tecnologias de IA devem beneficiar e empoderar o maior número de pessoas possível.

15) Prosperidade compartilhada: A prosperidade econômica criada por IA deve ser partilhada de forma ampla, para beneficiar toda a humanidade.

16) Controle humano: Os humanos devem escolher como e se irão delegar decisões a sistemas de IA, para realizar objetivos escolhidos por humanos.

17) Não subversão: O poder conferido pelo controle de sistemas de IA altamente avançados deve respeitar e aprimorar, em vez de subverter, os processos sociais e cívicos de que a saúde da sociedade depende.

18) Corrida armamentista de IA: Uma corrida armamentista de sistemas autônomos letais deve ser evitada.

Questões de mais longo prazo

19) Cautela quanto à capacidade: Como não há consenso, devemos evitar pressupostos fortes sobre os limites superiores das capacidades de IA futuras.

20) Importância: IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos proporcionais.

21) Riscos: Os riscos impostos por sistemas de IA, especialmente os riscos catastróficos ou existenciais, precisam ser submetidos a esforços de planejamento e mitigação proporcionais a seu impacto esperado.

22) Automelhoria recursiva: Sistemas de IA desenhados para se automelhorar ou autoreplicar recursivamente de modo que possam levar a uma quantidade ou qualidade rapidamente crescente precisam estar sujetios a medidas estritas de segurança e controle.

23) Bem comum: A superinteligência só deve ser desenvolvida a serviço de ideais éticos largamente compartilhados, e em benefício de toda a humanidade, em vez de um estado ou organização.

 

E aí, você acha que eles bastam para nos reassegurar de que uma megatragédia não vai ocorrer? Você também pode manifestar seu apoio aos princípios clicando aqui e preenchendo um formulário com seu nome completo, seu cargo, seu e-mail e sua afiliação.

Os 23 itens certamente abrangem uma série de questões que preocupam no desenvolvimento da inteligência artificial, como a falta de controle que poderíamos ter sobre ela ou o potencial disruptivo que ela pode ter na sociedade, acelerando brutalmente a mecanização nos próximos anos. Questões de ordem militar também são abordadas.

Há tanto que discutir sobre IA que é difícil cobrir tudo. Para quem quiser mais uma leitura interessante a respeito do tema, sugiro uma entrevista que fiz para esta Folha com Ray Kurzweil, um dos pesquisadores mais respeitados nesse campo, em 2012. (Nossa, já faz quase cinco anos! Tempo voa!)

De toda forma, o grande problema desses princípios aí é que, de boas intenções, o inferno já está cheio. Ou seja, vamos precisar de mais que isso para garantir que essas diretrizes serão seguidas no futuro. Estou falando de discussões públicas amplas, tratados internacionais, leis, fiscalização e punição severa a quem for pego infringindo as regras.

De outro modo, quem decidirá se vamos terminar com o simpático e inofensivo C-3PO ou com o psicopata HAL 9000?

A discussão começa agora.

Acompanhe o Mensageiro Sideral no Facebook, no Twitter e no YouTube

Blogs da Folha

Publicidade
Publicidade
Publicidade