FYI.

This story is over 5 years old.

Tecnologia

Precisamos Impedir Robôs Assassinos de Conquistar o Mundo

Esqueça o aquecimento global, tsunamis, terremotos e guerras. A verdadeira ameaça à humanidade está bem na sua frente, nessa telinha luminosa.

Nick Bostrom. Foto via

O trabalho de Nick Bostrom é imaginar cenários cada vez mais sinistros que poderiam levar a raça humana à extinção: quedas de asteroides, desastres com experimentos de física de altas energias, pragas globais de superinsetos geneticamente modificados, surgimento de computadores superpoderosos com pouca consideração pela vida humana, enfim, esse tipo de coisa.

Na hierarquia das categorias de risco, a especialidade de Bostrom é algo acima de meras catástrofes como mudanças climáticas, colapsos do mercado financeiro e guerras convencionais.

Publicidade

Diretor do Future of Humanity Institute, na Universidade de Oxford, Bostrom faz parte de uma rede pequena, mas crescente, de instituições acadêmicas que enfrentam esses “riscos existenciais”: o Centre for the Study of Existential Risk, na Universidade de Cambridge, o Future of Life Institute, no MIT, e o Machine Intelligence Research Institute, em Berkeley. Suas ferramentas são a filosofia, a física e muita, muita matemática avançada.

Cinco anos atrás, ele começou a escrever um livro para leigos sobre uma seleção de riscos existenciais. Foi então que percebeu que o capítulo sobre os perigos do desenvolvimento da inteligência artificial estava ficando grande o bastante para merecer um capítulo exclusivo. O resultado foi o livro Superintelligence: Paths, Dangers, Strategies (Superinteligência: Caminhos, Perigos, Estratégias). A leitura é convincente, talvez até assustadora.

O argumento central é que o desenvolvimento da inteligência artificial se dará em um ritmo tão acelerado que ainda neste século seria possível equipará-la ao nível de inteligência humana.

Atingido este nível, o desenvolvimento seria ainda mais rápido: máquinas inteligentes serão capazes de criar máquinas ainda mais inteligentes, levando ao que o matemático I. J. Good chamou, em 1965, de uma “explosão de inteligência”, superando em muito as capacidades humanas. Poderíamos então relaxar, seguros de que o trabalho pesado seria feito por supercomputadores criados por nós.

Publicidade

Uma explosão de inteligência. Ilustração via

Isso tudo parece legal, certo? Não muito, porque háum problema sobre como controlar essas coisas. Basicamente, é muito mais fácil criar uma inteligência artificial do que criar uma inteligência que seja capaz de respeitar o que é caro para nós, humanos. Bostrom diz: “Não há razão nenhuma para pensar que estas poderosas inteligências artificiais do futuro terão qualquer consideração em relação aos humanos”.

E isso nos leva até os gorilas. Em termos de força muscular, gorilas superam os seres humanos. Entretanto, nossos cérebros são um pouco mais sofisticados –e milênios de prática em confecção de ferramentas (gravetos afiados, barras de ferro, armas, etc.) aumentaram essa vantagem. Agora, o futuro dos gorilas depende muito mais dos humanos que deles próprios.

Em seu livro, Bostrom defende a ideia de que, uma vez atingida a superinteligência, os humanos do presente e do futuro se tornam os gorilas, perseguidos por um agente mais poderoso e capaz, que não vê nada de errado em aprisionar essas dóceis criaturas ou destruir seus ambientes naturais como meio de atingir suas metas.

Foto via.

“Um erro no estabelecimento do tipo certo de objetivos levar á à catástrofe”, explica Bostrom. Uma máquina superinteligente poderia superar rapidamente o contexto para o qual ela foi inicialmente desenvolvida pelos humanos, escapar do controle e adotar medidas extremas para atingir suas metas. Como ele frisa, “trabalhando com máquinas pouco inteligentes, um pouco mais de inteligência aumenta a segurança; trabalhando com máquinas que já são inteligentes, um pouco mais de inteligência pode ser perigoso”.

Publicidade

O diretor do Future of Humanity Institute dá o exemplo de uma máquina superinteligente, alocada em uma fábrica de clipes, cujo objetivo maior é maximizar a produção de clipes e cuja inteligência a permitiria adquirir diferentes meios de aumentar suas capacidades. “Se sua meta é fazer o máximo possível de clipes e você é uma máquina superinteligente, você pode predizer que os seres humanos podem querer desligar esta máquina depois de certa quantidade de clipes ter sido produzida”, teoriza. “Portanto, para este agente, pode ser interessante se livrar dos humanos. Também pode ser interessante usar como material nossos corpos, casas e comida para fazer clipes.”

“Algumas dessas ações arbitrárias que melhorariam a produção de clipes podem envolver a destruição de tudo o que nos é caro. É muito difícil especificar metas que não teriam essas consequências.”

Bostrom prevê ainda que o desenvolvimento de uma máquina superinteligente seráou muito boa ou catastroficamente ruim para a raça humana, sem meio-termo.

Mas nem tudo é desgraça. Os humanos têm uma vantagem decisiva: o primeiro passo depende de nós. Se desenvolvermos um germe de inteligência artificial capaz de garantir que as futuras máquinas se limitem à satisfação dos interesses humanos, ainda há salvação. Mesmo assim, restaum perigo à espreita.

“Nós só teremos uma chance”, diz. Desenvolvida a superinteligência, ela será sofisticada demais para que nós a controlemos efetivamente.

Publicidade

Imagem via.

Se você acha que cientistas do mundo todo estão trabalhando no que Bostrom chama de “a tarefa essencial de nosso tempo”, você está enganado. “É difícil saber quantos exatamente, mas há provavelmente cerca de seis pessoas [no mundo] trabalhando nisso agora.”

Talvez isso tenha relação com a ideia de que trabalhar com uma inteligência artificial superpoderosa seja para os mais excêntricos.  “Muitos acadêmicos tinham receio de entrar num campo que estava repleto de doidos. Isso dissuadiu muitas pessoas por muito tempo”, lamenta.

Um dos que não foram dissuadidos foi Daniel Dewey. Atraído pelo prospecto de lidar com o problema do controle de inteligências artificiais, deixou um emprego no Google para trabalhar com ele no FHI e na Martin School, da Universidade de Oxford. “Ainda acho que os melhores colegas de trabalho estão na academia e em instituições sem fins lucrativos, mas isso pode estar mudando. Grandes companhias, como o Google, estão começando a se preocupar com o futuro da inteligência artificial”, destaca Dewey.

O ex-funcionário do Google é otimista em relação a seus ex-colegas de trabalho e acredita que eles impedirão qualquer intenção nefasta relacionada à inteligência artificial. “Há um bem comum muito claro aqui. As pessoas da ciência da computação, em geral, querem melhorar o mundo o quanto puderem. Háum sentimento real de que a ciência e a engenharia podem fazem do mundo um lugar melhor.”

Publicidade

Jaan Tallinn, fundador do Skype e cofundador do CSER, investiu milhões em fundos para a pesquisa do controle de inteligências artificiais. Ele se interessou pelo assunto após perceber que “o resultado padrão não era bom para os humanos”.

O CSER em Cambridge. Foto via.

Segundo Tallinn, a questão do controle apropriado de inteligências artificiais é urgente. “A inteligência artificial é uma espécie de metarrisco. Se você a tiver sob controle, ela ajudará a reduzir outros riscos existenciais, ao passo que o contrário não é verdadeiro. Por exemplo, ela poderia ampliar os riscos relacionados à biologia sintética”, deduz.

Tallinn afirma que ainda não é possível elaborar uma regulação efetiva, uma vez que “esses riscos existenciais são bastante novos”. Contudo, continua, “quando estes tópicos forem mais conhecidos, companhias de tecnologia podem elaborar novas regras para tornar essas tecnologias mais seguras”.

“A normatização dos níveis de segurança biológica é um bom exemplo de políticas existentes para se lidar com esse tipo de risco. No futuro, seria bom ter uma regulação equivalente para a inteligência artificial”, diz.

Jason Matheny, gestor de programa do IARPA, do Office of the National Intelligence dos EUA, concorda: “Precisamos de melhores métodos para avaliação dos riscos de tecnologias emergentes e eficácia das medidas de segurança.”

A ameaça da superinteligência é, segundo Matheny, muito pior que qualquer epidemia já ocorrida. “Alguns riscos especificamente difíceis de se controlar têm três características: autonomia, autorreplicação e automodificação. Doenças infecciosas têm essas características e foram responsáveis pela morte de mais pessoas do que qualquer outro tipo de acontecimento, inclusive guerras. Alguns malwares têm essa característica e podem causar muitos danos. Mas micróbios e malwares não podem se automodificar por vontade própria, então contramedidas ainda são efetivas. Um sistema superinteligente [como descrito por Bostrom] seria muito mais difícil de se controlar caso pudesse se automodificarpor força de sua própria inteligência.”

Enquanto isso, continua o trabalho discreto desses seis pesquisadores em seus laboratórios e salas de estudo. Como diz Matheny, “o risco existencial [e a superinteligência] éum tópico negligenciado em ambas as comunidades, científica e governamental, mas édifícil pensar em um tópico mais importante que a sobrevivência humana”.

Matheny cita Carl Sagan quando este escreveu sobre os custos da guerra nuclear: “Estamos falando sobre [o futuro de] cerca de 500 trilhões de pessoas que ainda estão por vir. Hámuitas outras medidas possíveis da perda potencial –incluindo a cultura e a ciência, a história evolucionária do planeta e a significância das vidas de todos os nossos ancestrais, que contribuíram para o futuro de seus descendentes. A extinção éa ruína do empreendimento humano”.

E isso tudo pode chegar através de computadores inteligentes. Você está avisado.

Tradução: Flavio Taam