Como garantir nossos direitos em um mundo com máquinas mais inteligentes que nós? Pode parecer ficção científica, mas viveremos este dilema até 2029.


Cada vez mais frequentes em nossas vidas, as máquinas tendem a ocupar um papel central na sociedade.

Isso é um processo corrente, nada completamente novo, mas em poucas décadas a integração entre o conhecimento virtual e real será tão grande que ficará quase impossível separar uma coisa da outra. E segundo Ray Kurzweil, um dos maiores inventores da atualidade, em breve a inteligência das máquinas superará a humana.

Aí, vem o dilema: Como garantir nossos direitos com máquinas mais inteligentes e fortes que nós?

No filme com Will Smith, a inteligência das máquinas levam a uma guerra pela sobrevivência humana.

Reproduzo abaixo a excelente entrevista do inventor americano à Folha de São Paulo. Logo a seguir, assista a palestra do diretor do laboratório de inteligência artificial da Universidade de Stanford sobre o futuro da robótica.

Folha – O sr. fala do aumento exponencial da tecnologia, mas há quem já fique irritado de ter de comprar um iPhone novo todo ano. O próprio perfil de consumo não vai frear o ritmo de avanço tecnológico?
Ray Kurzweil – Isso não vai acontecer, porque a tecnologia está evoluindo para se adaptar ao ser humano. Quando eu era jovem, computadores eram só para engenheiros e técnicos. Hoje, a interface está cada vez mais simples e intuitiva. Hoje, as pessoas conhecem faixas muito estreitas do conhecimento, mas temos nossas ferramentas computadorizadas para encontrar as informações de que precisamos. Então, já estamos expandindo nossas mentes por essas ferramentas. No fim das contas, elas vão parar dentro do nosso corpo e do nosso cérebro.

Como o sr. vê o percurso futuro da tecnologia, uma vez que mesmo eventos como guerras mundiais ou recessões econômicas fortes parecem ser incapazes de frear seu avanço? Há um limite?
Os limites definitivos, que vêm das leis da física, na verdade não são muito limitadores. Podemos expandir nossa inteligência trilhões de vezes antes de alcançar esse limiar. Agora, o que pode parar tudo é um derretimento existencial da civilização. Isso não é impossível. Nós temos armas atômicas em número suficiente para fazer isso.

E quanto ao risco representado por novas tecnologias?
Eu escrevi muito sobre o risco existencial vindo da genética, da nanotecnologia e da robótica. Eu não acho que a solução certa seria banir essas tecnologias. Primeiro, estaríamos nos privando dos benefícios. Ainda há muito sofrimento no mundo. Não acho que queremos dizer aos pacientes de câncer, “bem, estamos muito próximos de reprogramar a biologia e eliminar o câncer, mas vamos cancelar tudo isso por causa do risco de bioterrorismo”.

Em segundo lugar, seria preciso um sistema totalitário para impor um banimento em biotecnologia.

Mais importante, contudo, isso não funcionaria. Só empurraríamos essas tecnologias para o submundo, onde as únicas pessoas que teriam acesso a elas seriam os criminosos.
Cientistas responsáveis, com quem contaríamos para nos proteger, não teriam acesso às ferramentas para fazer isso.

Embora sua visão seja extremamente otimista quanto ao avanço da medicina, temos um sistema de desenvolvimento e aprovação de novos medicamentos que consome muitos anos. Isso não impedirá a evolução acelerada?
Eu acho que há problemas com a regulação. Mas não acho que seja um problema com a FDA [agência que regula remédios nos EUA] e com as agências reguladoras de outros países, e sim com as expectativas públicas e a ideia do juramento de Hipócrates, que eu acho errada. Ele diz: “em primeiro lugar, não faça mal”. Se você quer não fazer mal, demita todos os médicos e feche todos os hospitais, porque então você nunca faria mal nenhum. Sempre que você tenta ajudar as pessoas, há uma possibilidade de fazer mal a elas.

Sim, mas a ideia é ser cauteloso…
Não é um jogo de risco zero, você tem de considerar o risco da doença. E isso não recebe igual atenção na regulamentação. Se houver uma pequena chance de prejudicar o paciente, isso vai segurar o processo, mesmo que haja uma chance enorme de ajudar o paciente.

O sr. tem defendido que o desenvolvimento de máquinas capazes de pensar passa por usar o cérebro humano como modelo, e o sr. também fala de superinteligência, muito superior à do cérebro humano. Entretanto, temos exemplos de supercapacidades em humanos, como os savants, que têm memória e habilidades prodigiosas, mas, em compensação, apresentam um sério deficit em outras áreas da cognição. Será que não há aí uma barreira intransponível para a superinteligência?
O cérebro humano tem limitações. Faz certas coisas muito bem, e só podemos nos beneficiar aprendendo como funciona e então evitando algumas de suas limitações. Uma delas diz respeito à capacidade. Estimo que haja cerca de 300 milhões de reconhecedores de padrões no neocórtex. É isso que pode caber lá, biologicamente, por causa da arquitetura do crânio.

Uma vez que possamos criar um córtex artificial que funcione do mesmo modo, não existe razão pela qual o limitemos em 300 milhões, porque não teremos essa limitação física. Você pode ir para 1 bilhão, 1 trilhão…

Mas como saber que vai funcionar? Talvez haja uma limitação inerente à arquitetura do sistema. Não há como saber se ele continuará operando se você aumentar a escala ou se simplesmente haverá uma sobrecarga.
Você obviamente terá de tentar construir [esse supercérebro] para saber se ele funciona. Até agora funciona bem. Ainda não estamos no nível humano de inteligência. Mas, quando os computadores aprendem a fazer alguma coisa, conseguem fazê-la muito bem, na verdade melhor que os humanos.

Temos muito caminho a percorrer, mas não acho que estejamos muito longe. A data que eu sugiro é 2029, quando os computadores estarão no nível dos humanos.

E quanto à diferença entre inteligência e consciência? O sr. acha que máquinas serão capazes de fazer esse salto de autopercepção?
Bem, é uma questão filosófica. Algumas pessoas acham que a consciência é pensar sobre pensar; se você pode descrever seu processo de pensamento, isso é consciência. Minha posição é de que algumas teorias a esse respeito soam científicas, mas não são. Não são diferentes da crença religiosa de que há um ser supremo que atribui consciência a certas coisas, como humanos. Minha conclusão: você não pode evitar saltos de fé.

A aceleração da tecnologia leva, numa expressão que o sr. tomou emprestado da física, a uma singularidade -uma realidade imprevisível que não podemos ver agora porque está escondida de nós da mesma forma que um buraco negro. Queria levar essa metáfora um pouco mais adiante. Se eu fosse um viajante espacial e passasse perto de uma singularidade, faria tudo para evitá-la. Nós devemos evitar a singularidade tecnológica?
É uma ótima pergunta. Eu acho que estamos sendo puxados para ela e não podemos evitá-la. Nós temos inteligência suficiente para falar de como seria cair numa singularidade. Nós não necessariamente perceberíamos que cruzamos o horizonte dos eventos. Acho que é a mesma coisa aqui.

O mais difícil de encarar é a noção de uma IA (inteligência artificial) não amigável, que seria mais inteligente que nós e defenderia valores que não reconhecemos em nosso sistema moral.

Acho que o melhor jeito de nos defendermos disso é enfatizar os valores que respeitamos em nossa sociedade hoje, valores como democracia, tolerância, apreciação pelo próximo, liberdade de expressão e por aí vai.

O mundo do futuro não virá de um único laboratório. Ele emergirá do mundo de hoje. Se praticarmos esses valores agora, temos a melhor chance de refleti-lo no mundo do futuro. Não é uma estratégia infalível. Mas acho que é o melhor que podemos fazer.

Mas como os nossos valores vão ser transferidos às máquinas?
Bem, acho que nossas máquinas estão tremendamente integradas à nossa sociedade. Elas não estão isoladas em algum laboratório. Há 6 bilhões de celulares, 1 bilhão de smartphones, uma criança na África tem mais poder na sua mão que o presidente dos Estados Unidos tinha 15 anos atrás, em termos de acesso ao conhecimento e à informação. Indivíduos, jovens, têm o poder de mudar o mundo. Não é uma abstração. E as máquinas não estão lá fora com sua própria cultura. Nós já somos uma civilização homem-máquina.

Anúncios
Etiquetado , , , , , , ,

Um pensamento sobre “Como garantir nossos direitos em um mundo com máquinas mais inteligentes que nós? Pode parecer ficção científica, mas viveremos este dilema até 2029.

  1. Segundo o sábio Lênin, na fase monopólica do capitalismo, a elevada e crescente composição orgânica do capital contribui para a formação e consolidação dos monopólios (ou oligopólios)… Como bons (ou nem tanto) economistas deveríamos saber que o que traz a inovação é a concorrência… Ou seja, num mundo sem ou com pouca concorrência existe um forte desestímulo ao progresso técnico (ou não?)… Como pensar assim que na fase superior do capitalismo as máquinas irão nos dominar?
    Além disso, por mais que a inteligência artificial se desenvolva (e muito as vezes) sempre haverá no cerne uma programação robótica de base binária, elaborada e programada por um cérebro humano…
    Não parece assim equivocado atribuir a “perda dos direitos” adquiridos (?) por conta apenas da introdução das máquinas na produção e na execução e controle dos processos humanos? A questão da perda de direitos (que certamente existe e é empiricamente observável no mundo contemporâneo) me parece passar longe disso…

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s

Anúncios
%d blogueiros gostam disto: