sexta-feira, 28 de novembro de 2014

QUASE HUMANOS

Bloomberg
A inteligência artificial está no "cérebro" de robôs já amplamente usados na indústria automobilística, 
entre vários outros setores, em funções
 antes reservadas a trabalhadores
 
A cena de um sábado recente, em um apertado escritório em Berkeley, remete ao ambiente de uma típica startup do boom tecnológico, com engenheiros trabalhando no fim de semana numa corrida contra o tempo. O quadro branco pendurado em uma parede está todo rabiscado por canetas de cores diferentes. Um grande pote de doces e uma geladeira com porta de vidro, cheia de refrigerantes, encontram-se ao lado da porta de entrada.

Nate Soares, ex-engenheiro do Google, sentado na beira de um sofá, calcula as chances de sucesso de um projeto em que está trabalhando. Ele as coloca em cerca de 5%. Mas as probabilidades que está calculando não dizem respeito a um novo aplicativo para smartphones. Soares fala de algo muito mais notável: a indagação é se programadores como ele conseguirão salvar a humanidade da extinção, que poderá ser provocada por sua criação mais poderosa.

O objeto de preocupação - para Soares e para o Machine Intelligence Research Institute (Miri), em cujo escritório ele está - é a inteligência artificial (IA). Máquinas superinteligentes com "más intenções" são o prato principal da ficção científica, do computador de fala mansa Hal 9000 à violenta e assustadora Skynet. Mas a IA que pessoas como Soares acreditam que cruzará o caminho da humanidade, muito provavelmente antes do fim deste século, será muito pior.

Além de Soares, provavelmente há apenas quatro outros cientistas da computação, no mundo, que hoje trabalham na busca de meios de programar as máquinas superinteligentes do futuro não tão distante, para termos a certeza de que a IA permanecerá "amigável", afirma Luke Muehlhauser, diretor do Miri. Essas pessoas são motivadas pelo temor do que acontecerá quando os computadores superarem os humanos em inteligência. A essa altura, os humanos abrirão mão da liderança no desenvolvimento tecnológico, uma vez que as máquinas serão capazes de melhorar seus próprios projetos. E com a aceleração do ritmo das mudanças tecnológicas, não vai demorar muito até que as aptidões - e os objetivos - dos computadores superem em muito a compreensão humana. Eles verão seus criadores biológicos como simples aglomerados de matéria esperando para serem reprocessados em algo que eles achem mais útil, diz Muehlhauser. Vão consumir todos os recursos da Terra, para depois se lançarem no espaço, sugando a energia de estrelas distantes e por fim devorando grande parte do universo visível.

Há também uma linha de pensamento inspirada nos efeitos supostamente transformadores das tecnologias que em breve estarão ao alcance da humanidade: supõe-se que a raça humana está prestes a tomar o destino em suas mãos - para o bem ou para o mal.

Peter Diamandis, empreendedor, escritor e apaixonado pelo espaço sideral, é um dos profetas da civilização tecnológica avançada supostamente ao alcance de nossas mãos. Há quase 20 anos, ele era o cérebro por trás da XPrize Foundation, que ofereceu US$ 10 milhões para a primeira espaçonave reutilizável construída com capital privado. Entre seus projetos atuais está um plano para extrair minérios de asteroides. Uma grande rocha espacial que está na sua mira contém platina que, segundo ele estima, valeria US$ 5,4 trilhões no planeta Terra, a preços de hoje.

Para os tecno-otimistas como ele, a ideia de que em breve os computadores vão superar seus criadores é uma certeza e algo a ser comemorado. Por que essas máquinas iriam se dar ao trabalho de nos prejudicar, quando seremos tão interessantes para elas quanto "as bactérias que existem no solo do quintal de casa"?, ele questiona.

Ao contrário do cenário de filme-catástrofe vislumbrado no Miri, Diamandis delineia um futuro em que as máquinas vão se liberar de suas amarras terrestres e deixarão a humanidade para trás. "O universo é enorme e há muitos recursos e energia para elas." Não há motivos para ficarem por aqui e entrar em guerra com a humanidade. Elas podem escapar à velocidade da luz, se quiserem."

Ligar o presente a um futuro em que a humanidade será libertada pela tecnologia avançada é a razão da existência de profetas como Diamandis. Ele aponta para os membros de uma nova classe de super-ricos que está no comando das maiores companhias de tecnologia e possuem o dinheiro e a ambição para perseguir ideias inovadoras - pessoas como Elon Musk, da Tesla Motors e da SpaceX, Jeff Bezos, da Amazon, e Larry Page, do Google.

A inteligência artificial é um dos principais ingredientes desse processo. É uma tecnologia que promete tornar possíveis muitas outras - por exemplo, permitir às pessoas interagir com computadores conversando com eles e tornar os computadores muito melhores na apresentação de respostas úteis. A IA também atua como "cérebro" em robôs, "drones" e carros que não precisam de motoristas.

Companhias que aceleraram os investimentos em pesquisas de IA ao longo do ano passado, seja comprando startups promissoras da área ou contratando talentos conhecidos, incluem o Google, o Facebook e a Amazon, além da companhia chinesa da internet Baidu. Quando lhe perguntaram, este ano, em um evento interno do Google, se a empresa tinha planos para tentar desenvolver inteligência artificial de dimensões humanas, o cofundador Larry Page demonstrou otimismo com os progressos que poderão ser feitos no futuro, embora também tenha sugerido que a tecnologia ainda está distante, segundo informaram pessoas a par de seus comentários.

Cientistas procuram garantir que, no futuro, máquinas muito inteligentes sejam "amigáveis" e não se 
voltem contra seus criadores

A história das pesquisas com inteligência artificial, que pode retroagir 58 anos, para uma conferência no Dartmouth College, em New Hampshire, onde a expressão foi cunhada, está cheia de falsos inícios. Se as novas esperanças também não se concretizarem, não será por falta de ambição ou empenho.

A lista de coisas que podem nos destruir vem crescendo. Inclui não só o aquecimento global, mas as máquinas microscópicas da nanotecnologia, que se autorreproduzem e podem reduzir o mundo a uma gosma cinzenta, e até mesmo uma praga provocada por experiências irresponsáveis com bioengenharia. Francamente, quem tem tempo para se preocupar com todas essas coisas?

Desde que pareçam suficientemente remotos, eventos verdadeiramente terríveis podem até ser um pouco emocionantes. A partir de Ícaro, a ideia do criador sendo destruído pela criatura passou a ser uma fantasia instigante, um tipo de narcisismo Frankenstein para a elite tecnológica. Conforme diz o futurista do Vale do Silício Paul Saffo, isso provoca "um desejo ardente e profundo". "É a expulsão do Jardim do Éden. É o pecado original."

Isso pode explicar por que o assunto provoca tanto fascínio, tanto sobre aqueles que alertam para os riscos, como aqueles que veem a inteligência artificial como o instrumento que na verdade vai libertar a humanidade. "Os dois lados estão tratando isso como uma religião secular", diz Saffo.

Se tudo isso fosse o cenário de pesadelo da IA, seria fácil deixar de lado. Mas os alertas estão ficando mais enfáticos. O astrofísico Stephen Hawking escreveu este ano que a IA será "o maior evento da história da humanidade". Mas acrescentou: "Infelizmente, também poderá ser o último".

Elon Musk - cujos sucessos com os automóveis elétricos (por meio da Tesla Motors) e os voos espaciais privados (com a SpaceX) o transformaram em um quase super-herói no Vale do Silício - levantou a voz. Recentemente, aconselhou seus quase 1,2 milhão de seguidores no Twitter a ler "Superintelligence", um livro sobre os perigos da inteligência artificial que o fez pensar que a tecnologia é "potencialmente mais perigosa que a energia nuclear". A humanidade, no entender de Musk, pode ser como um programa de computador cuja utilidade termina assim que um software mais complexo entra em atividade. "Torço para que não sejamos apenas o "bootloader" [em informática, programa que prepara o funcionamento de um sistema operacional] biológico da superinteligência digital", disse no Twitter. "Infelizmente, isso é cada vez mais provável."

O sueco Nick Bostrom, autor do livro ("Superintelligence: Paths, Dangers, Strategies") que provocou o alerta inquietante de Musk, é professor de filosofia e diretor do Instituto Futuro da Humanidade da Universidade de Oxford. Ele diz ter começado a se interessar pelo assunto na década de 90, em uma discussão por e-mail em um fórum promovido por um grupo conhecido como Extropians. Entre muitos "excêntricos" e "malucos", havia um punhado de pensadores sérios que também estavam olhando para um futuro trans-humanista, em que a tecnologia levaria a humanidade para além de suas limitações biológicas - como Eliezer Yudkowsky, o guia espiritual por trás do Miri em Berkeley.

A crença de que a extinção autoinfligida da humanidade por meio da tecnologia é algo digno de estudos acadêmicos sérios vem se espalhando. Neste ano, noticiou-se a criação do Instituto do Futuro da Vida nos Estados Unidos (Musk faz parte do conselho consultivo), e a Universidade de Cambridge instalou seu Centro de Estudos do Risco Existencial. Como não há falta de eventos cataclísmicos com que se preocupar, a questão mais premente poderá ser decidir com o que se preocupar mais.

"As pessoas estão passando muito tempo pensando nas mudanças climáticas e pouquíssimo tempo se preocupando com a inteligência artificial", diz Peter Thiel, o investidor do Vale do Silício que é amigo de Musk e um grande apoiador financeiro do grupo de Yudkowsky.

Por trás de todos os alertas há uma crença crescente entre os cientistas da computação de que, dentro de algumas décadas, as máquinas vão alcançar a condição de "inteligência geral artificial" e igualar os humanos em sua capacidade intelectual. Esse momento, diz Thiel, "será um evento tão importante quanto a chegada de extraterrestres no planeta": vai marcar o nascimento de um intelecto tão capaz quanto o dos humanos, mas totalmente inumano, com consequências imprevisíveis.
Bloomberg 
Elon Musk, um nome estrelado no mundo da tecnologia avançada: a inteligência artificial
 é "potencialmente mais perigosa que a energia nuclear"
 
A inteligência artificial já provocou uma discussão pública nos últimos meses, sobre um tipo diferente de risco, centrado em como ela poderá acabar com o trabalho humano, uma vez que computadores inteligentes e robôs poderão assumir a maior parte dos empregos das pessoas. Mas o problema maior é a possibilidade de a IA acabar com a própria humanidade. "A primeira pergunta que faríamos se alienígenas aterrissassem no planeta não seria o que isso significaria para a economia ou os empregos, e sim se eles seriam amigáveis ou hostis."

A rigor, segundo Bostrom, o tipo de inteligência baseada em máquinas que está dominando a humanidade não desejaria mal aos seus criadores. Mas estaria tão concentrada em seus próprios objetivos que poderia acabar triturando a humanidade num piscar de olhos, como um humano que esmaga uma formiga sem perceber.

É aí que entram os cenários de pesadelo. Assim que superarem o intelecto de seus criadores, as máquinas provavelmente chegarão às suas próprias conclusões sobre como melhor alcançar os objetivos que lhes foram programados. E se os humanos não conseguem nem impedir acidentes nos atuais sistemas tecnológicos moderadamente complexos, que chances têm de controlar os sistemas que virão?

O Miri foi fundado sob a crença de que os cérebros limitados dos humanos terão de encontrar um meio de fazer uma programação de segurança nessas máquinas divinas, antes que elas possam alcançar seu potencial pleno. Mas tudo que a mente humana consegue sonhar para controlar a insondável vontade dos supercomputadores parece destinado a fracassar. E com os sistemas complexos governados por computadores tendo um papel cada vez mais importante na vida diária, isso coloca a humanidade em uma clara desvantagem se as coisas derem errado.

No entanto, até mesmo os pessimistas afirmam estar preparados para considerar um resultado mais feliz. Bostrom diz que há uma chance de as coisas acabarem muito bem. Auxiliados por suas máquinas brilhantes, os humanos poderiam rapidamente colonizar o espaço, achar uma solução para o envelhecimento e fazer o "upload" de suas mentes para computadores - basta superar o momento perigoso da explosão da inteligência artificial. "Se chegarmos ao próximo século e alcançarmos a maturidade tecnológica, poderemos ter outros bilhões de anos."

Assim como todas as corridas tecnológicas, a busca pela inteligência artificial nos moldes humanos é movida pela esperança, o idealismo, a ambição e a ganância. É também movida por seu próprio ímpeto, uma vez que o crescimento exponencial da potência dos computadores que acompanhou a revolução da informação contribui inexoravelmente para elevar as capacidades à disposição dos cientistas da computação de todas as partes do mundo.

Diamandis personifica a esperança de muitos, no Vale do Silício, em relação a essa aceleração no ritmo das mudanças tecnológicas. Diante de uma plateia na Singularity University, centro de treinamento que ajudou a fundar perto da sede do Google, ele previu a chegada de "um enorme tsunami de mudanças", que acabará com a vida precária de bilhões de pessoas. Referia-se ao atendimento das necessidades básicas de cada homem, mulher e criança. "Não estou falando de bolsas Louis Vuitton e Ferraris." Considerando que o custo da criação de potência dos computadores continuará caindo às taxas verificadas desde a chegada dos microchips, ele prevê: "Ainda não vimos nem 1% das mudanças que veremos nos próximos dez anos".

Para otimistas como Diamandis, o irreprimível anseio humano pelas descobertas significa que impedir novas invenções não é algo apenas impossível, mas também indesejável. E isso se aplica até mesmo na eventualidade de alguns de seus usuários serem potencialmente perigosos: "Há esse esforço genético que precisamos explorar. Ele nos motiva a fazer mais porque simplesmente podemos - e se não podemos, por que não iríamos querer?"

Há também a suposição inquestionável no Vale do Silício de que, se algo pode ser feito, então inevitavelmente será. Impedir deliberadamente que uma tecnologia avance até sua conclusão lógica parece não apenas ser uma questão de negligência, mas também algo moralmente errado.

Esta é a suposição que Neil Jacobstein, diretor adjunto do curso de inteligência artificial da Singularity University, faz ao descrever como os computadores serão tão avançados, um dia, a ponto de simular o cérebro humano. "Vamos fazer a engenharia reversa do cérebro. É assim que a coisa funciona."

Também não há muitos questionamentos sociais sobre o desenvolvimento tecnológico acelerado que vem sendo promovido por empresas privadas. "As discussões em torno da inovação são orientadas pela premissa de que precisamos de mais", diz Bostrom. "Não é óbvio, se você dá um passo atrás e olha para o quadro macro da humanidade, que, quanto mais inovação se tem, melhor será." Esses pronunciamentos sombrios soam profundamente fora de época.

E há o motor da criação de riqueza da indústria tecnológica. Uma vez em funcionamento, fica difícil freá-lo. Tecnologias são rapidamente criadas e lançadas no mercado. Os ajustes, quando necessários, são feitos posteriormente.

"Há muitos incentivos para se fazer algo e pouquíssimos para fazer da maneira certa", diz Soares. Contra essas compulsões, a autocontenção parece uma coisa altamente improvável. "Na história, isso quase nunca aconteceu." E são esses incentivos desequilibrados que o convenceram de que há apenas 5% de chance de se programar salvaguardas suficientes na inteligência artificial avançada (embora acrescente outros 15% de que vai acontecer algo que, por enquanto, nem conseguimos imaginar).

Para Page, do Google, a inteligência artificial já se emaranhou na vida on-line. Serviços como a busca na internet ou a tradução automática entre idiomas representam um nível elevado de inteligência artificial sob controle das pessoas. "Eles estão aprendendo com você e você está aprendendo com eles. De certa forma, a internet já é isso: uma combinação de inteligência humana e das máquinas que torna nossa vida melhor."

Page, que está lendo o livro de Bostrom, diz estar feliz com o fato de os riscos da inteligência artificial estarem sendo expostos - embora também critique o "alarmismo" em torno do assunto. Haverá muito tempo depois para descobrirmos como controlar a inteligência artificial avançada que está chegando. "À medida que nos aproximarmos dela, saberemos como fazer. Vamos aprender muita coisa no processo."

Nem por isso as advertências apocalípticas serão silenciadas. Conforme diz Muehlhauser, diretor do Miri: "Estamos brincando com a inteligência dos deuses. E não há um interruptor para desligar".
 -------------------
REPORTAGEM  Por Richard Waters | Do Financial Times
Fonte: Valor Econômico online, 28/11/2014

Nenhum comentário:

Postar um comentário