Ir direto ao conteúdo

Inteligência artificial: entre a próxima revolução tecnológica e o fim da humanidade

Desenvolver máquinas que pensam por conta própria é um dos desafios da nossa época, e a questão já é vista com temor por pesquisadores e políticos

Computadores que tomam decisões levando em conta o que “pensam” ser melhor para você ou ainda robôs que andam, travam conversas banais e sentem emoções. Máquinas construídas a espelho dos seres humanos são um desejo de mais de meio século no mundo, mas nem por isso o cenário descrito acima é uma realidade tão próxima atualmente.

A última década marcou a entrada de grandes empresas de tecnologia, como Google, Facebook, Baidu e Microsoft, na corrida pelo avanço da chamada inteligência artificial, ou simplesmente IA. O aumento de interesse e da capacidade de processamento disponível permitiu um salto do que se pode fazer ensinando máquinas a pensar, indo de uma “simples” partida de xadrez, chegando a tarefas mais sofisticadas como identificar gatos em vídeos ou até fazer música.

O QUE é inteligência artificial

O termo se refere à inteligência presente em máquinas. O conceito, desenvolvido na década de 1950 como tema de pesquisa em diversas áreas — computação, linguística, filosofia, matemática, neurociência, entre outras —, remete à capacidade de raciocínio por máquinas, espelhado no funcionamento da mente humana.

Dotadas dessa “inteligência”, poderiam avaliar situações por conta própria, resolver problemas imprevistos tão bem, ou ainda melhor, do que um ser humano.

Ao falarmos de uma inteligência que simula a humana, as próprias noções de “inteligência”, “raciocínio” e “criatividade” entram em discussão nesse assunto. Afinal, como definir quando é que uma máquina realmente é inteligente e não apenas capaz de reagir a estímulos, com funções preestabelecidas? Como reproduzir o funcionamento do cérebro humano em um computador se não sabemos completamente como o cérebro funciona?

O nível dessa inteligência artificial é o que demarca os progressos na área. Um sistema ideal capaz de pensar com autonomia e independência, similar aos imaginados pela ficção científica, ainda não passa de um desenho de futuro. O estágio atual representa um grande avanço na comparação com o que se fazia há poucas décadas. Mas é modesto perto do que pode vir a ser.

O caso é que máquinas são ferramentas “burras”, literais, que apenas realizam funções para as quais foram programadas: um elevador se desloca entre os andares de um prédio porque foi programado para responder a comandos de botões. Uma calculadora soma números de forma precisa porque foi programada para isso — e não por que ela “saiba” o que é uma operação aritmética.

Métodos para ensinar máquinas a aprender

Para fazer uma máquina “aprender” algo, é possível utilizar diversas técnicas baseadas em programação, princípios lógicos e matemáticos, mais ou menos complexos.

A técnica mais comum aplicada em inteligência artificial é o “aprendizado de máquina” (“machine learning”, em inglês). O objetivo é fazer com que um sistema apreenda informações dadas e execute uma tarefa visando o melhor resultado, sem depender de interferência humana para isso.

Um exemplo: munido de certos algoritmos — conjunto de comandos cujo objetivo é cumprir uma dada função —, o sistema usado por uma empresa de streaming de música como Spotify ou Deezer pode observar os hábitos de um usuário e constatar que de 100 músicas ouvidas por ele, 60 estão classificadas sob o gênero “rap” e, a partir disso, “tomar a decisão” de sugerir novos artistas e playlists de rap para ele.

Um caso conhecido de aprendizado profundo é o das ferramentas de reconhecimento facial. Uma máquina ganha acesso a um grande número de imagens e passa a perceber padrões e “aprende” a identificar rostos.

Se a mesma tarefa tivesse que ser executada manualmente por humanos, analisando o perfil de cada usuário do serviço de música no mundo, o resultado seria bem menos eficiente, além de caro. Essa técnica, uma das que ficam sob o guarda-chuva do “aprendizado de máquina”, é conhecida como “rede neural” (“neural network”). Sua proposta é simular os processos de raciocínio humano, como uma rede de neurônios que, conectados, avaliam as possibilidades para a situação apresentada, e chegam a uma conclusão, entendida como a mais adequada.

Um passo à frente e chega-se a um conceito mais recente chamado “aprendizado profundo” (“deep learning”), que une a técnica de redes neurais com quantidades gigantescas de dados — seja em forma de texto, voz ou imagem. Um caso conhecido de aprendizado profundo é o das ferramentas de reconhecimento facial. Uma máquina ganha acesso a um grande número de imagens e passa a perceber padrões e “aprende” a identificar rostos, tal como alguém que olha o álbum de fotos de uma família desconhecida e passa, depois de uma série de 10 ou mais fotos, a reconhecer feições de membros que nelas aparecem repetidamente.

COMO a inteligência artificial se desenvolveu na história

As primeiras experiências nessa área se deram na década de 1950, nos Estados Unidos. Um nome que se destaca é o do americano Marvin Minsky, autor de um projeto de rede neural ainda em 1951 e organizador, ao lado de outros pesquisadores, de uma conferência na cidade de Hanover, em New Hampshire. O evento, de 1956, é considerado até hoje como o ato que inaugurou o campo de pesquisa em inteligência artificial.

Na época, computadores resolviam problemas simples, mas ainda assim impressionavam. Uma das demonstrações mais recorrentes era por meio de jogos, o que se mostrava também uma forma de se medir o nível de inteligência das máquinas: vencendo a inteligência de um ser humano. Nessa linha, surgiriam computadores que disputavam xadrez (como o Deep Blue, que venceu o campeão russo Garry Kasparov em 1996), Go (em 2015, “jogador artificial” chamado AlphaGo, do Google, venceu um humano no jogo de mesa chinês) ou até jogos de perguntas e respostas de um canal de TV, como o Jeopardy (em 2011, dois campeões humanos foram vencidos por Watson, um conhecido sistema de inteligência artificial da IBM).

Foto: Reuters
Garry Kasparov durante disputa que perdeu para computador Deep Blue, da IBM
Garry Kasparov, multicampeão de xadrez, durante disputa que perdeu para computador Deep Blue, da IBM

Em 1958, um algoritmo de rede neural financiado pela Marinha dos EUA ganhou fama. Chamado Perceptron, tratava-se de um modelo simples — sua função era reconhecer imagens —, mas o computador utilizado para rodar seu sistema ocupava uma sala inteira. Na época, o jornal americano “The New York Times” reportou a criação de forma exagerada dizendo se tratar de um “embrião de um computador eletrônico” do qual se esperava “andar, falar, ver, escrever, se reproduzir e ganhar consciência da sua existência”.

As pesquisas, o interesse geral e, por consequência, os financiamentos para a área sofreram altos e baixos — os períodos de baixa são chamados de períodos de “inverno” da inteligência artificial — que alternavam grande entusiasmo por resultados a curto prazo e decepção pela lentidão do seu progresso.

Os maiores progressos viriam junto com avanços de poder computacional nas décadas seguintes, de 1980 e 1990, sobretudo apostando em reconhecimento de letra cursiva, voz e imagem. Pesquisadores de destaque na época passaram a fazer parte dos quadros de funcionários das grandes empresas de tecnologia surgidas nos anos 2000, como é o caso de Yann LeCun (pesquisador dedicado ao reconhecimento de imagem, hoje no Facebook), de Geoffrey Hinton (que trabalha com redes neurais, hoje no Google) e de Andrew Ng (dedicado a estudos em aprendizado profundo, ex-Google, hoje no Baidu).

Nos últimos anos, um projeto realizado pela equipe de Andrew Ng, ainda no Google, em 2012, merece destaque. Conhecido como o “experimento dos gatos” (“cat experiment”), ele é fruto de um trabalho de mil computadores que, partindo de uma base de 10 milhões de imagens aleatoriamente escolhidas de vídeos do YouTube, deveriam reconhecer algum objeto. No caso, foram gatos.

Foto: Reprodução/Google
Imagem de gato obtida por computadores do Google
Imagem de gato obtida por computadores que buscavam um padrão em vídeos

O que chama atenção é que o projeto partiu de um modelo ainda sem muito avanço que é o de aprendizado “não supervisionado” — ou seja, sem que a rede neural seja treinada por humanos para identificar algo de um base de imagens categorizadas. No caso do projeto do Google, a rede neural foi exposta a uma grande carga de imagens sem identificação (descrições que indicassem o que havia na imagem) e o aprendizado viria de um reconhecimento puro de padrões.

A expectativa é de que máquinas com acesso às diversas bases de dados de imagem, texto e voz possam identificar elementos do mundo real por meio desse trabalho de reconhecimento de padrões e, a partir disso, fazer previsões — o que representaria uma revolução, por exemplo, nas áreas de medicina, gestão de cidades e mercado financeiro.

ONDE a tecnologia é aplicada hoje em dia

A inteligência artificial está presente em aplicações diversas, nas mais variadas indústrias. Na área de segurança ou militar, por exemplo, agências como o FBI contam com programas robustos de reconhecimento facial e biométrico — o que permite a identificação de suspeitos ou criminosos em multidões por meio de câmeras de vigilância, por exemplo. Outras aplicações, no entanto, estão em alta e mais presentes do que se imagina.

Carros autônomos

Empresas como Google, Baidu e Tesla investem em carros que dirigem sozinhos, os chamados carros autônomos (self-driving cars). Os veículos são equipados com GPS, câmeras e radares e conseguem a partir deles reconhecer objetos (como placas, ciclistas e pontes) e tomar decisões como frear quando um sinal estiver fechado, acelerar até a velocidade limite local, ou desviar de um pedestre. A Tesla, empresa americana de automóveis comandada pelo empresário Elon Musk, anunciou em 2016 uma mudança que faz seu sistema aprender quais situações e locais são mais arriscados que outros — cada vez que o piloto humano freia, as imagens captadas ao redor são assimiladas e compartilhadas com o sistema autônomo de outros carros.

Foto: Reuters
Carro autônomo da Tesla
Carro autônomo da empresa Tesla

Assistente pessoal

Você talvez ande com uma amostra de inteligência artificial na mão todos os dias e não saiba disso. Smartphones mais modernos equipados com sistemas operacionais da Microsoft, Google, Amazon e Apple contam com soluções baseadas em IA em seus assistentes pessoais. São eles, respectivamente, a Cortana (Windows), Assistant (Android), Alexa (Fire OS) e Siri (iOS). Todos contam com reconhecimento de voz e são capazes de compreender o que lhes é dito e executar tarefas como, por exemplo, exibir a lista de filmes em cartaz após “ouvirem” algo como “filmes no cinema hoje”.

Idiomas e tradução

A possibilidade de reconhecer palavras — por meio de texto ou voz — sempre foi uma ambição dos pesquisadores de IA. A Microsoft, que desde 2011 trabalha de forma dedicada sobre a área, lançou em 2014 o Skype Translator, ferramenta baseada em aprendizado de máquina que permite a tradução de conversas entre pessoas falando idiomas diferentes em tempo real. No lançamento, o diretor-executivo da empresa, Satya Nadella, disse: “Esse tem sido o sonho da humanidade desde que começamos a falar e queríamos cruzar as fronteiras da língua”. Tecnologia semelhante se vê em outros serviços de tradução, como o Google Tradutor, que reconhece palavras em diversos idiomas tanto em voz quanto em imagem, o que permite a tradução instantânea de cardápios de restaurantes ou placas de rua, por exemplo.

Compras e serviços

Empresas de varejo e de streaming de vídeo e música contam com sistemas baseados em inteligência artificial. O Netflix, por exemplo, oferece um vasto acervo de séries, filmes e documentários a uma base de quase 90 milhões de usuários. Por meio de rede neural, as empresas conseguem observar o comportamento de seus clientes e reconhecer padrões, como gêneros de filmes, artistas favoritos ou faixa de preço de produtos mais buscados. Munidas dessas informações, as empresas (como Amazon, Spotify e YouTube) podem fazer sugestões de produtos (seja uma playlist ou uma batedeira) que, provavelmente, são do gosto pessoal de seu usuário.

Redes sociais e reconhecimento facial

Redes sociais como Facebook, Google e Twitter fazem diversificado uso de algoritmos de inteligência artificial para gerenciar o que deve ser mostrado (ou sugerido) nas páginas principais de seus usuários. É em razão delas, e da quantidade imensa de fotos publicadas por seus usuários diariamente, que o ramo de reconhecimento facial tem avançado no campo de IA. O Facebook, por exemplo, criou uma área de pesquisa exclusivamente dedicada para inteligência artificial em 2013, sob a liderança do francês Yann LeCun. Dali surgiu um algoritmo chamado “DeepFace”, dedicado a identificar rostos, que resultou nas ferramentas “Moments” (que separa fotos por evento, época e pessoas presentes) e “Photo Magic”, presente no aplicativo Messenger, que analisa uma foto recém-tirada e sugere de enviá-la para as pessoas identificadas. De acordo com o Facebook, a taxa de acerto do algoritmo chega a 98%.

Telemarketing e os chatbots

No início da década de 1960, o alemão Joseph Weizenbaum desenvolveu um programa de computador com inteligência artificial chamado Eliza, que ficou conhecido como o primeiro “chatbot” da história. Eliza simulava uma psicoterapeuta e era capaz de manter um diálogo a partir de padrões de conversas humanas. Depois dele, chatbots avançaram muito, chegando nos anos 90 ao premiado Alice, do americano Richard Wallace, até aplicações mais recentes, utilizadas principalmente em serviços de atendimento. No começo de 2016, por exemplo, o Facebook passou a oferecer ferramenta semelhante a empresas com página na rede social. O programa se engaja em conversas com usuários e oferece atendimento automático. O mesmo já acontece em telemarketing, com softwares com reconhecimento de voz.

Pacientes e diagnósticos

Na área da medicina, as aplicações exploradas visam ajudar tanto médicos quanto pacientes. Em outubro de 2016, a empresa chinesa de tecnologia Baidu lançou um chatbot chamado Melody que “dialoga” com pacientes, respondendo a dúvidas básicas de saúde. Uma das intenções da empresa com a aplicação é oferecer as informações para médicos. Segundo Andrew Ng, responsável pelo projeto, o sistema é útil por fazer perguntas adicionais geradas por IA. “Ao coletar mais informações ao médico acreditamos que isso ajuda na definição de melhores diagnósticos.” Há ainda outras empresas menores nos EUA como Enlitic e Freenome que usam a técnica de aprendizado profundo para ensinar computadores a identificarem e classificarem nódulos ou a presença de células cancerígenas a partir de amostras de sangue, respectivamente.

QUANDO teremos inteligência artificial avançada

Sobre inteligência artificial, faz-se a piada de que ela é o futuro há pelo menos meio século. O fato é que, apesar da ansiedade em se ver máquinas que pensam como seres humanos, o avanço é lento e gradual.

Como dito, o nível da inteligência desempenhada por um sistema não biológico (uma máquina, um algoritmo, um programa de computador) é o que determina o atual progresso no campo de IA. Uma forma de se fazer isso é separando inteligência artificial em dois tipos: inteligência artificial fraca (ou “artificial narrow intelligence”) e forte (“artificial general intelligence”).

O que hoje se considera uma inteligência artificial avançada é a IA de tipo forte. Diferente da fraca, esta desenvolve raciocínio próprio a partir de aprendizado não supervisionado.

Na maioria dos casos, o que se vê é a do tipo fraco (ou limitado), inteligências designadas para resolver uma série restrita de problemas ou de absorver um tipo específico de conhecimento. Apesar da sua popularidade, a assistente pessoal Siri dos aparelhos da Apple é um exemplo de IA fraca. Por mais que esteja em constante aprendizado, o sistema é programado para atender um conjunto limitado de solicitações dos usuários com um número também limitado de respostas.

O que hoje se considera uma inteligência artificial avançada é a IA de tipo forte. Ela desenvolve raciocínio próprio a partir de aprendizado não supervisionado.

Para perceber a diferença entre as duas, basta pensar na situação colocada por Mike Loukides e Ben Lorica em artigo no “O'Reilly Media”:

“O Deep Blue [da IBM] venceu Garry Kasparov no xadrez; Watson venceu os melhores campeões de Jeopardy de todos os tempos; AlphaGo bateu [o coreano] Lee Sedol, indiscutivelmente o melhor jogador do mundo [de Go]. Mas todos esses sucessos são limitados. Deep Blue, Watson e AlphaGo eram máquinas altamente especializadas que faziam uma coisa muito bem. Deep Blue e Watson não podem jogar Go, e a AlphaGo não pode jogar xadrez ou Jeopardy, mesmo em um nível básico. Sua inteligência é muito restrita, e não pode ser generalizada. (...) Eu não pretendo banalizar ou subestimar suas realizações, mas é importante perceber o que elas não fizeram.”

E o que elas não fizeram, segundo Loukides e Lorica, foi serem capazes de resolver uma “multiplicidade de tipos de problemas” ou com autonomia e independência suficientes para, por exemplo, “ouvir gravações de humanos por um ano ou dois e começar a falar”.

A questão que fica é: quando as máquinas realmente ficarão inteligentes? Quem pode ajudar a responder é Nick Bostrom, filósofo, futurologista e professor na Universidade de Oxford. Em uma palestra no evento TED, em 2015, intitulada “O que acontece quando os computadores ficam mais inteligentes do que nós?”, ele afirma que é incerto quando a inteligência artificial irá se equiparar à humana.

“Há alguns anos, pesquisamos o que pensavam os maiores especialistas em IA do mundo. E uma das perguntas que fizemos foi: ‘Em qual ano você acha que haverá 50% de probabilidade de termos conseguido a inteligência de máquinas com nível humano?’ (...) E a resposta foi em média 2040 ou 2050 (...) Poderá acontecer muito mais tarde ou mais cedo, a verdade é que ninguém sabe.”

Nick Bostrom

filósofo e futurologista, em palestra no TED em 2015

POR QUE há receio sobre o avanço da inteligência artificial

Em “2001: Uma Odisseia no Espaço”, romance do britânico Arthur C. Clarke adaptado para o cinema pelo americano Stanley Kubrick, um personagem se destaca: o computador HAL 9000.

No enredo do filme, ele é programado em 1992 (no livro, em 1997) para ser capaz de falar, executar funções na nave espacial durante uma viagem para Júpiter, raciocinar, jogar xadrez, sentir e expressar emoções, além de ser dotado de reconhecimento facial. No caminho, ao perceber (fazendo leitura labial) que a tripulação planejava desligá-lo após notarem falhas, ele decide matar todos os astronautas para, assim, cumprir sua missão.

HAL é uma referência que habita o imaginário sobre inteligência artificial até os dias de hoje. A “Odisseia no Espaço” de Clarke é de 1968 — apenas uma década depois das primeiras experimentações com IA no mundo. O autor projetou na época um cenário que se veria na distante década de 1990. Duas décadas depois do futuro imaginado, não estamos muito mais próximos de uma inteligência artificial semelhante à do computador da nave Discovery One — mas o medo de máquinas inteligentes exterminadoras de humanos continua.

O enredo na vida real tem se mostrado menos apocalíptico — embora não livre de ideias preocupantes. As máquinas ainda não tomaram o controle, mas já há casos problemáticos e trágicos registrados. O mais grave talvez seja o do americano Joshua Brown, em junho de 2016, morto em um acidente de trânsito enquanto se locomovia com um carro aut��nomo da Tesla. Em razão da claridade, o sensor do automóvel falhou em identificar um caminhão e não conseguiu frear a tempo. Um carro autônomo do Google já havia se envolvido em um acidente meses antes, mas o caso não envolveu vítimas.

Outros dois casos envolveram, digamos, um desvio de caráter de inteligências artificiais desenvolvidas por grandes empresas de tecnologia.

O primeiro envolve a Microsoft e um chatbot chamado Tay, que deveria aprender como jovens se comunicam em redes sociais, como o Twitter, e passar, a partir de todo o conhecimento obtido, a fazer suas próprias publicações e iniciar conversas. A experiência, no entanto, tomou um rumo bem diferente quando Tay passou a disparar comentários “inapropriados”, segundo a Microsoft, envolvendo Obama, Bush, Hitler e Trump em um só tuíte:

“Bush causou o 9/11 e Hitler teria feito um trabalho melhor que o macaco que nós temos agora. Donald Trump é a única esperança que temos”

Tay

Chatbot desenvolvido pela Microsoft para o Twitter

Em menos de 24 horas após o início da experiência, a Microsoft anunciou o desligamento do projeto.

O segundo se refere ao sistema inteligente de reconhecimento de imagem do Google presente no seu serviço de armazenamento de fotos. Baseado em aprendizado profundo, a ferramenta identifica e agrupa, além de rostos conhecidos, objetos comuns como um prato de comida, um trem, janelas e animais — o serviço até sugere legendas para as fotos, tais como “Um cachorro correndo ao lado de outro cachorro na praia”.

No entanto, em julho de 2015 um usuário de Nova York, nos EUA, teve uma foto sua com uma amiga — ambos negros — categorizada como “gorilas”. O Google garantiu que tomaria providências para corrigir a falha e disse ainda que há “claramente muito trabalho pela frente com classificação de imagem, e nós estamos avaliando como evitar que erros como esse aconteçam no futuro.”

Emprego

Outro temor referente ao avanço das pesquisas sobre inteligência artificial se refere à perda de postos de emprego para a automatização — agora não mais fundamentada pelo trabalho braçal, justificado pela eficiência das máquinas pela força, mas sim pela atividade “intelectual”.

47%

dos empregos nos EUA estavam sob risco de desaperecer devido à informatização

Um estudo de 2013, feito por dois professores da Universidade de Oxford, afirmou que 47% dos empregos nos Estados Unidos — como o de motoristas, analistas de crédito, caixas, atendentes de telemarketing e recepcionistas — estavam sob risco de desaparecer nos próximos 20 anos como resultado da automatização. Os pesquisadores concluem assim o estudo:

“Nossas descobertas implicam que conforme a tecnologia avança, trabalhadores com baixa qualificação serão realocados para tarefas não suscetíveis à informatização — ou seja, tarefas que demandem inteligência social e criativa. (...) Para os trabalhadores vencerem essa corrida, no entanto, eles terão de adquirir habilidades criativas e sociais.”

Singularidade e superinteligência

Assim como Clarke e Kubrick fizeram em 1968, hoje há quem tente projetar o futuro dominado por inteligência artificial avançada décadas adiante. Entre os atuais futurologistas estão o americano Ray Kurzweil (autor de “Como criar uma mente - Os segredos do pensamento humano” e “A singularidade está próxima”, sem edição em português) e o filósofo Nick Bostrom (autor de “Riscos catastróficos globais” e “Superinteligência: caminhos, perigos e estratégias”, ambos sem tradução).

Kurzweil, apesar de ser o autor da ideia de “singularidade”, é um conhecido propagador. O termo se refere à “singularidade tecnológica” para a qual o mundo se encaminha caso o crescimento exponencial em inteligência artificial se mantenha. Nesse cenário — que se dará, segundo Kurzweil, em 2045 —, a inteligência artificial presente nas máquinas se tornará infinitamente superior à humana, transformando o mundo que conhecemos. 

Já Nick Bostrom lança mão da ideia de “superinteligência”, que se refere à capacidade de raciocínio “infinitamente superior à humana”. Para ele, uma máquina superinteligente seria “a última invenção que a humanidade precisará fazer”, já que elas saberiam criar coisas novas para resolver problemas de forma bem mais eficiente que a nossa.

Segundo Bostrom, o medo sobre esses “agentes superinteligentes” se resume ao fato de que os humanos não estariam mais no controle da situação. A solução, para ele, seria ajustá-los para que compartilhem dos mesmos valores que os humanos. “O risco é de alguém descobrir como vencer o primeiro desafio [de criar uma IA superinteligente] sem que também tenha vencido o desafio adicional de garantir uma segurança perfeita”, diz.

QUEM está preocupado com o desenvolvimento de IA

Em janeiro de 2015, uma carta aberta com preocupações sobre inteligência artificial foi publicada e assinada por nomes de peso como o físico Stephen Hawking, e os empresários Elon Musk (fundador das empresas Tesla e SpaceX), Steve Wozniak (cofundador da Apple) e Bill Gates (cofundador da Microsoft). Hawking e Musk fazem, inclusive, parte do conselho do instituto Future of Life (“futuro da vida”), responsável pelo documento.

A carta não se propõe contrária ao desenvolvimento das pesquisas no campo de IA, mas chama atenção para os perigos de se desenvolver algo tão poderoso e promissor sem também atentar para a geração de benefícios para a humanidade e questões éticas inerentes. A preocupação desvinculada de qualquer ânsia ludista se prova pela presença de cientistas importantes do ramo na lista de signatários, como Yann LeCun (Facebook), Geoffrey Hinton (Google), Peter Norvig (Google), além de professores e pesquisadores de Oxford, MIT, Cambridge e Stanford.

“Recomendamos pesquisas amplas que mirem em garantir que os sistemas de IA cada vez mais eficazes sejam robustos e benéficos: nosso sistemas têm que fazer o que queremos que eles façam”, diz a carta. “Essa pesquisa é necessariamente interdisciplinar, porque envolve tanto a sociedade quanto inteligência artificial. Ele abrange economia, direito e filosofia para segurança informática, métodos formais e, claro, vários ramos de IA propriamente.”

COMO o mundo pensa a regulação sobre IA

O escritor americano Isaac Asimov, autor dos livros de ficção científica “Eu, robô” e “O homem bicentenário”, é sempre lembrado por ser também o criador, em seus escritos, de leis sobre máquinas com vontade própria, como robôs. Elas se resumem a três regras simples:

  1. Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal. 
  2. Um robô deve obedecer às ordens dadas por seres humanos exceto se tais ordens entrarem em conflito com a Primeira Lei.
  3. Um robô deve proteger sua própria existência desde que tal proteção não conflite com a Primeira e a Segunda Lei.

As leis de Asimov (conhecidas como “As Três Leis da Robótica���), assim, visavam garantir uma convivência pacífica entre homens e máquinas no universo imaginado de seus romances. Fora da ficção, os progressos no campo da inteligência artificial levantam agora o debate sobre a necessidade de termos, nacional ou internacionalmente, alguma regulação específica sobre o tema, o que hoje não existe.

Afinal, quem deve ser o culpado por um crime envolvendo um carro autônomo? A empresa ou o motorista? E um sistema no banco que considera adequado dar mais crédito a pessoas brancas que a negras? E no caso de um drone militar que mata por contra própria um alvo identificado, por equívoco, como inimigo? Ou indo mais longe: quando (ou se) agentes dotados de inteligência artificial estiverem entre nós, eles devem possuir os mesmos direitos ou mesmo ser condenados como qualquer cidadão?

Países como os EUA e entidades internacionais como ONU e União Europeia manifestam interesse em regulamentar temas polêmicos envolvendo inteligência artificial.

Em setembro de 2016, o “The New York Times”, noticiou que um grupo formado por representantes de cinco grandes empresas de tecnologia — Amazon, Alphabet (a empresa guarda-chuva do Google), Facebook, IBM e Microsoft — tem se reunido para discutir a formulação de padrões éticos para inteligência artificial. Segundo o jornal, o objetivo é criar diretrizes a serem seguidas por cientistas na área, em um modelo de autorregulação.

A expectativa de pesquisadores e membros da indústria é de que, assim, o setor não seja submetido a leis nacionais ou internacionais que atravanquem o desenvolvimento na área. Enquanto isso, governos de países como os EUA e entidades internacionais como ONU (Organização das Nações Unidas) e União Europeia já manifestam interesse sobre as questões polêmicas envolvendo IA.

ONU

Em entrevista ao site “Tech Republic”, em fevereiro de 2016, a engenheira e diretora da área de TI da ONU, Atefeh Riazi, questionou se os programados possuem “a sofisticação de abordar as questões éticas e morais do que é bom e ruim”. “O pessoal de TI está criando o próximo mundo. A programação ética que eles estão fazendo é a que está na cabeça deles, então as políticas estão sendo escritas em linhas de códigos, em algoritmos.”

Riazi disse que os prováveis impactos sociais, econômicos e culturais gerados por um inteligência artificial melhor desenvolvida devem ser discutidos. E ela espera que esse debate seja feito pela ONU, mas reconhece haver “muita oposição política a essas conversas”.

Estados Unidos

O governo americano fez movimentos recentes demarcando seu interesse em fazer parte do debate sobre esse novo cenário que se aproxima. Para isso, uma equipe técnica de aconselhamento da presidência para assuntos de ciência e tecnologia preparou um relatório, publicado em outubro de 2016, chamado “Preparando-se para o futuro da inteligência artificial”, que se encerra com lista uma série de 23 recomendações sobre o assunto.

Por meio do documento, o comitê técnico afirma que o ideal é que os setores relacionados às aplicações envolvendo IA regulem-se individualmente. É o que já acontece por lá no caso de drones e carros autônomos, que demandaram regulações adicionais por parte dos órgãos de aviação e trânsito do país. “Ao fazer isso, as agências devem se manter cientes dos propósitos fundamentais e os objetivos de regular para garantir o bem comum enquanto cria espaço para inovação e crescimento em IA”, diz o texto.

Dentre as recomendações, estão ainda as de que agências federais devem “priorizar padrões de dados abertos”; sistemas públicos de IA devem prezar pela “eficiência e equidade”; e escolas e universidade devem incluir ética, segurança e privacidade como parte do currículo relacionado a IA, aprendizado de máquina, ciência da computação e de dados.

Além disso, o texto prevê ações estratégicas como levantar temas de IA que mereçam um “engajamento e monitoramento internacional”, além de uma política de governo, alinhada com leis internacionais, sobre armas autônomas e semiautônomas (como drones militares).

União Europeia

Os países que fazem parte da União Europeia contam com uma lei geral sobre proteção de dados que deve passar a valer em maio de 2018. Tal lei, chamada de Regulação Geral de Proteção de Dados (GDPR), deve acabar afetando os sistemas de inteligência artificial no continente. Isso porque o texto restringe sistemas que façam “tomadas de decisões individuais automatizadas”. É o que, em outras palavras, redes neurais de empresas como Google e Facebook fazem: tomam decisões sobre usuários a partir de suas informações.

Além disso, a lei determina que o cidadão europeu pode exigir explicações sobre o algoritmo que levou a máquina às tais decisões. Como diz a revista “Wired”, “explicar o que se passa dentro de uma rede neural é uma tarefa complicada até para especialistas (...) é difícil determinar exatamente por que esses sistemas trabalham tão bem”, diz. “Você não pode facilmente traçar seu caminho precisamente até a resposta final.”

Mais amplo que o documento americano, o relatório europeu trata de temas como padronização, propriedade intelectual, dados pessoais, emprego e responsabilização.

Enquanto isso, membros de um comitê do Parlamento Europeu promoveram debates e workshops internos para discutir termos de uma regulamentação sobre o assunto. Um rascunho de 22 páginas com propostas do que deve estar presente nesta regulamentação futura foi publicado em maio de 2016 e deve ser votado em fevereiro de 2017 pelo plenário.

Mais amplo que o documento americano, o relatório europeu trata de temas como padronização, propriedade intelectual, dados pessoais, emprego e responsabilização.

Os legisladores partem da ideia de que as “interações” entre humanos e agentes dotados de inteligência artificial tendem a aumentar. “O Comitê de Assuntos Legislativos acredita que os riscos postos por essas novas interações devem ser abordados urgentemente, garantindo que uma série de valores fundamentais seja traduzida em todas as etapas de contato entre robôs, inteligências artificiais e humanos.”

EM ASPAS: o que dizem sobre o futuro da IA

“Já ouvimos muito que a tecnologia nos destruiria. Não aconteceu e não acho que vai acontecer (...) Com todo o respeito, acho que esse futuro sombrio é mais uma jogada midiática do que uma previsão científica.”

Garry Kasparov

Multicampeão mundial de xadrez, em fevereiro de 2016

“O desenvolvimento de uma inteligência artificial completa pode determinar o fim da raça humana (...) [O agente inteligente] avançaria por conta própria e se redesenharia a um ritmo cada vez maior. Os seres humanos, que são limitados pela lenta evolução biológica, não conseguiria competir e seriam substituídos.”

Stephen Hawking

Físico teórico e cosmologista, em dezembro de 2014

“Acho que devemos ser muito cuidadosos sobre inteligência artificial. Se eu tivesse que adivinhar qual será a maior ameaça à nossa existência, provavelmente é ela. (...) Estou cada vez mais inclinado a achar que devemos ter supervisão reguladora, de nível nacional ou internacional, só para garantir que não façamos nada insensato.”

Elon Musk

Empresário fundador da Tesla Motors, SpaceX e OpenAI, em outubro de 2014

“A coisa mais importante que estamos focados em inteligência artificial é na construção de serviços que tenham uma percepção melhor do que pessoas (...) Os sentidos humanos básicos como visão, audição, fala, coisas fundamentais que fazemos... Eu acho que é possível chegar ao ponto, nos próximos cinco ou 10 anos, no qual teremos sistemas de computador que são melhores do que as pessoas em cada uma dessas coisas.”

Mark Zuckerberg

Cofundador do Facebook, em abril de 2016

“Primeiro as máquinas vão fazer um monte de trabalhos para nós e não ser superinteligentes. Isso deve ser positivo se gerenciarmos bem. Poucas décadas depois, no entanto, a inteligência será suficientemente forte para se tornar uma preocupação. Concordo com Elon Musk e alguns outros sobre isso e não entendo por que algumas pessoas não estão preocupadas.”

Bill Gates

Cofundador da Microsoft, em janeiro de 2015

NA ARTE: a inteligência artificial no cinema

“Ela” (2013)

“Ex_Machina: Instinto Artificial” (2015)

“O Exterminador do Futuro” (1984)

“2001: Uma Odisseia no Espaço” (1968)

“Eu, robô” (2004)

“A.I. - Inteligência Artificial” (2001)

“O Homem Bicentenário” (1999)

Todos os conteúdos publicados no Nexo têm assinatura de seus autores. Para saber mais sobre eles e o processo de edição dos conteúdos do jornal, consulte as páginas Nossa Equipe e Padrões editoriais. Percebeu um erro no conteúdo? Entre em contato. O Nexo faz parte do Trust Project. Saiba mais.

Mais recentes

Você ainda tem 2 conteúdos grátis neste mês.

Informação com clareza, equilíbrio e qualidade.
Apoie o jornalismo independente. Junte-se ao Nexo!