FYI.

This story is over 5 years old.

Tecnologia

Se não quisermos que a IA seja má, devemos ensiná-la a ler

Pesquisadores sugerem que, ao ler livros de ficção, a inteligência artificial poderia compreender nossos conceitos de bem e de mal.
Crédito: Universidade de Lincoln

Muitas pessoas inteligentes já fizeram declarações hiperbólicas sobre a inteligência artificial. Em 2014, Elon Musk, o CEO da Tesla Motors e da SpaceX, comparou a pesquisa atual sobre IA a "conjurar o demônio" e chamou o mal-intencionado HAL 9000 de 2001: uma Odisseia no Espaço de "cachorrinho" comparado às IAs do futuro. Naquele mesmo ano, o físico teórico Stephen Hawking afirmou que criar a IA "seria um erro e, potencialmente, nosso pior erro de todos os tempos".

Publicidade

Mas também tem muita gente inteligente com opinião oposta. Marl Riedl, um pesquisador em IA da Faculdade de Computação Interativa do Instituto de Tecnologia da Geórgia, nos Estados Unidos, não está nada preocupado.

"Não acredito que vamos ter uma situação em que a IA vai representar uma ameaça real", ele me contou. "Não acredito em cenários Skynet ou Singularidade nos quais a IA vai ascender e resolver que somos ruins para eles."

Riedl afirmou que, pelo menos por enquanto, é improvável que criemos uma inteligência geral e senciente do tipo que Musk, Hawking e Skynet do Exterminador do Futuro 2: O Julgamento Final invocam. O estado atual da IA não está nem perto de decidir que os humanos são nocivos, menos ainda de agir por conta própria contra nós.

Mark Riedl. Crédito: Instituto de Tecnologia da Geórgia.

Entretanto, IAs limitadas e criadas para desempenhar tarefas específicas no futuro já estão por aqui. Carros autopilotáveis são os melhores exemplos. Ao fazer escolhas por nós durante uma viagem de rotina ao mercadinho, enfrentaremos um dilema que conversa com o temor de muitos teóricos: como alinhamos a IA com nossos valores para que ela nunca nos prejudique de propósito?

Riedl sugere que a melhor forma para que a IA entenda os humanos é por meio da leitura de histórias que expressem nossos valores. Para simplificar, a teoria é de que se a IA pode ler a Bíblia, ou qualquer outro livro, ela poderia compreender nossos conceitos de bem e de mal.

Publicidade

Como Riedl afirmou, a IA não vai nos fazer mal porque é ruim, mas porque não entende o conceito de prejudicar. É muito difícil (se não impossível) listar para uma IA tudo o que ela não deveria fazer. Em vez disso, Riedl afirmou, precisamos prover cultura à IA.

"O problema é que não temos um corpus grande de comportamento moral e imoral", ele afirmou. "Em vez disso, temos histórias que nos deram muitos exemplos de caras bons e caras maus, de comportamento moral e imoral. Não temos um manual de usuário para a cultura humana, mas temos obras coletivas de pessoas que estão colocando seus valores e crenças à mostra."

Riedl e seu colega Brent Harrison resumiram esse método em um artigo recente intitulado "Using Stories to Teach Human Values to Artificial Agents" ["Utilizar histórias para ensinar valores humanos a agentes artificiais"]. É o que parece mesmo. A pesquisa dá continuidade a um projeto anterior, chamado de Scheherazade, no qual uma IA pode criar ficção interativa (imagine um daqueles livros "escolha sua própria aventura") ao ler e aprender por meio de outras histórias.

Ao usar essa habilidade para detectar padrões em um grande número de histórias, Riedl e Harrison criaram um sistema chamado de "Quixote", que pode ensinar à IA a maneira adequada de executar uma tarefa. Como exemplo, Riedl e Harrison simularam dar a uma IA a tarefa de comprar medicamentos em uma farmácia. "Se você tiver uma IA programada nos métodos de padrão de eficiência, ela poderá ir até a farmácia, roubar o medicamento e fugir", Riedl afirmou.

Publicidade

Isso não significa que a IA está sendo má. É que ela desconhece tudo o que pode ou não fazer quando vai à farmácia, isto é, pagar pelo medicamento ou furar filas. Esse código de conduta não é ensinado em sala de aula. São coisas que as pessoas aprendem no mundo real, de acordo com regras sociais e imitação dos comportamentos das outras pessoas, mais especificamente dos pais. Uma IA não tem pais – ou ao menos pais generosos o suficiente para permitir essa longa curva de aprendizado.

"Mas se treinarmos a IA para seguir as normas sociais e dermos um punhado de histórias nas quais os personagens seguem as normas sociais, tipo ir ao banco, sacar dinheiro, usar o dinheiro para pagar o medicamento, ficar na fila se houver pessoas esperando à sua frente – essas coisas simples nas quais nem paramos para pensar todos os dias –, teremos conseguido algo muito importante", afirmou Riedl.

O experimento de Riedl e Harrison prova que o método pode funcionar, embora sob condições bastante limitadas e controladas. A tarefa foi simulada – os pesquisadores não construíram um robô de verdade que foi a uma farmácia, que fique claro – e a IA foi alimentada (o que deve ter sido muito chato) com histórias que tinham a ver unicamente com ir à farmácia. Todas foram escritas para o experimento, vale ressaltar.

A IA identifica as escolhas nas histórias da farmácia, é premiada por fazer aquilo que os humanos fariam na mesma situação e é punida se desempenha a ação contrária. A premissa funcionou. E, de certa forma, cria fundamentos para um método que vai garantir que não conjuremos demônios enquanto criamos a inteligência artificial.

Publicidade

"Parece bastante sensato", me contou Jonathan Moreno, estudioso de bioética e no Centro para o Progresso Americano. "A ficção é uma forma de termos acesso à vida privada de outras pessoas, independentemente de elas serem reais ou não. É uma forma como os escritores vivenciam valores sociais e expectativas. Devo dar crédito [a Riedl] por considerar essa fonte."

Se algum dia chegarmos ao ponto em que desenvolvemos uma IA senciente do tipo que vemos na ficção científica, o método de prover cultura à inteligência artificial de Riedl e Harrison poderá ser extremamente útil. Mas, ainda assim, entramos em outra questão: que histórias usaremos?

Como o artigo afirma, "enquanto um agente de aprendizagem por reforço [uma IA] com um sinal de recompensar aprendido por meio de histórias será compelido a agir o mais próximo dos humanos, é possível que circunstâncias extremas resultem em um comportamento que pareça psicótico".

Obviamente, nem toda história ficcional tem uma compreensão simplista de bem e de mal. Robin Hood é um criminoso, mas é um cara bom. Temos anti-heróis e narradores não confiáveis. Os valores transmitidos pela Bíblia não necessariamente servem para os valores dos nossos tempos. Isso levanta outra questão moralmente ambígua: quem escolhe as histórias?

"É uma questão política", afirmou Moreno. "Parece que não há como filtrar isso. Haverá julgamentos feitos em todos os aspectos quando desenvolvemos um sistema como esse."

"Logo que você começa a escolher, você está dizendo que quem escolhe sabe mais do que o resto da sociedade aquilo que é correto", Riedl afirmou. "Se você retirar as histórias dos anti-heróis, será que vai ter uma noção de como nossa sociedade é de verdade? Por isso que fico muito incomodado com essa curadoria. Conforme nos encaminhamos para a era da big data, é sempre mais seguro colocar mais dados do que o necessário. Se as histórias estão disponíveis em uma determinada cultura, todas elas deveriam ser consideradas. Tudo, desde a Bíblia e histórias de ficção científica e fantasia. Quanto mais exemplos tivermos, mais seremos capaz de encontrar o comportamento médio."

Seria legal se pudéssemos ensinar a IA a ter mais virtudes do que nós, mas não podemos simplesmente criar esse comportamento por meio de códigos. Mesmo Isaac Aimov intuiu isso quando escreveu As Três Leis da Robótica em 1942. Então o máximo que Reidl visa agora é uma IA com valores tão "bons" quanto os nossos. E, felizmente, são valores bons o bastante.

Tradução: Amanda Guizzo Zampieri