A Inevitável Vitória da Inteligência Artificial

De tempos em tempos, um novo livro ou filme recoloca em discussão a possibilidade de uma inteligência artificial. O debate sempre é intenso: será possível construir um artefato dotado da mais nobre capacidade humana? Outra questão: mesmo que seja possívelconstruir uma inteligência artificial, seria aceitável fazê-lo? Essas questões receberam grande atenção do matemático inglês Alan Turing, que em 1950 propôs o hoje famoso “teste de Turing”: um esquema para determinar quando uma máquina seria indistinguível, do ponto de vista da inteligência, de um ser humano. O teste de Turing foi recentemente abordado no cinema, pelo filme O Jogo da Imitação. Nesse “jogo”, um avaliador humano interage, apenas por meio de perguntas e respostas, com um interlocutor que pode ser outro ser humano ou uma máquina; teremos produzido uma inteligência artificial quando o comportamento da máquina não puder ser distinguido, pelo avaliador, do comportamento do ser humano. Será possível atingir esse ponto?

Essa questão provavelmente não será respondida na prática tão cedo; muito ainda será necessário entender sobre a inteligência humana para ao menos sabermos o que significa “reproduzi-la”. O conceito de inteligência é bastante fluido; às vezes achamos até que nossos animais de estimação são “inteligentes”. Porém, mesmo que pudéssemos concordar sobre o que é exatamente a inteligência que gostaríamos de reproduzir, não será tão cedo que alguém a reproduzirá: a pesquisa corrente em inteligência artificial está muito distante de atingir vários aspectos essenciais da inteligência humana. Por exemplo, atividades de negociação ou criatividade, ou mesmo atividades que requerem compreensão da destreza manual humana, ainda estão além do que podemos obter com máquinas.

No entanto, por  qualquer métrica que se possa tomar, o desenvolvimento de uma inteligência artificial limitada, e capaz de resolver problemas específicos, é um sucesso notável. Por exemplo, em nosso quotidiano nos defrontamos com artefatos que traduzem textos, que recomendam produtos, que fazem planos e diagnósticos, que interagem através de vozes e imagens. A maneira como esses artefatos operam não é necessariamente similar ao comportamento humano, mas o sucesso desses artefatos salta aos olhos pelo seu vigor econômico e seu potencial social.

Assim é que a Google, essa empresa onipresente, é baseada na compreensão e tradução de texto, busca de informações, e identificação de preferências – atividades tipicamente humanas e que foram capturadas por computadores nos últimos anos. Em resumo, a Google é uma empresa baseada em técnicas desenvolvidas na área de inteligência artificial. Dessa mesma forma se apresenta a IBM, uma das maiores empresas de tecnologia do mundo, e desenvolvedora do programa Watson, que em 2011 ganhou uma competição de perguntas e respostas dos melhores participantes humanos. Como outro exemplo de sucesso das técnicas de inteligência artificial, temos que a maioria das empresas inovadoras de comércio eletrônico, da Amazon à Buscapé, conta com algoritmos que analisam dados de usuários e tomam decisões autônomas recomendando produtos.

O uso de sistemas de tomada de decisão automáticos também é corrente em finanças, em situações nas quais a diferença de segundos entre movimentos de compra e venda leva a grandes consequências monetárias. Economistas não estão alheios ao potencial explosivo da pesquisa em inteligência artificial; como disse Kenneth Rogoff já em 2010: “Em suma, não concordo com a ideia de que, depois da internet e do PC, teremos de esperar muito tempo até a próxima inovação. A inteligência artificial fornecerá o impulso que favorecerá a evolução nesta década.” Talvez seja muito otimista esperar tanto ainda nesta década, mas a evolução caminha célere, e não demorará a frutificar em sua plenitude.

Como chegamos a essa situação, lembrando que há cerca de 20 anos os melhores centros de pesquisa internacionais não conseguiam encontrar de forma automática um rosto em uma imagem, e enfrentavam grande dificuldade para simular a voz humana? A que se deve esse avanço tecnológico extraordinário, no espaço de aproximadamente 20 anos?

Em primeiro lugar, houve um avanço significativo em tecnologias digitais. Acima de tudo, houve extraordinário avanço no poder computacional hoje disponível a baixo custo. Um telefone celular hoje pode realizar operações que apenas um computador caro e pesado podia explorar há 20 anos. Mas note que os computadores não são os únicos personagens: as câmeras também foram reduzidas em tamanho e em preço, assim como microfones e outros sensores.

Além disso, dois outros fenômenos tiveram grandes consequências na área de inteligência artificial. Há cerca de 20 anos nascia a World-Wide-Web. O crescimento desse repositório de informações foi explosivo. O fato de dispormos de um vasto armazém de dados, livres e abertos, permite que máquinas instantaneamente esclareçam termos e conceitos quando isso se mostra necessário. A imensa quantidade de informações na Web criou necessidades de pesquisa em sistemas de busca e compreensão de informações, que por sua vez geraram inúmeros avanços na compreensão automática de textos. Finalmente, a Web abriu mercado para empreendedores interessados em sistemas automáticos de compreensão de texto, de busca de imagens, de detecção de spam.

Outro fenômeno importante ocorrido nos últimos 20 anos é o que hoje recebe o nome genérico de “BigData”. Ou seja, o uso de bases com grandes volumes de dados, contendo informações complexas e estruturadas. Experimentos e testes podem ser realizados muito mais efetivamente hoje do que há poucos anos. A inundação de dados também cria novas necessidades, e novos produtos têm surgido com a missão de compreender e processar dados de considerável sofisticação. O potencial de métodos de “aprendizado” que evoluem a partir da análise de dados é tão grande, que hoje boa parte da pesquisa anteriormente rotulada como “inteligência artificial” simplesmente se anuncia como “aprendizado de máquina”. Embora se use também com certa frequência o termo “aprendizagem de máquina”, este último parece um tanto ambicioso, pelo menos por ora: a maior parte das técnicas usadas na prática procuram reproduzir o aprendizado de uma tarefa concreta, e não procuram realmente emular o processo de aprendizagem humano, um processo que em geral envolve o desenvolvimento de conceitos e abstrações de alto nível cognitivo.

O que se nota nesse processo é o aparecimento de artefatos que se manifestam de maneira reconhecida como inteligente, mas cuja “inteligência”, seja lá qual for, não é construída espelhando a inteligência humana. Assim, nenhum ser humano, por mais inteligente que seja, resolve charadas recorrendo ao imenso depósito de conhecimento codificado na Wikipedia – é simplesmente impossível ao ser humano ter memória para isso. Mas um computador pode acessar a Web, e nesse sentido sua “inteligência” pode ser construída por meios inteiramente diversos do humano. Com efeito, o programa Watson, da IBM, recorre a enormes depósitos de dados em suas elucubrações. Essa “inteligência” pode ser, em alguns casos, até mais eficaz que a inteligência humana. Afinal, a inteligência humana é notoriamente lenta ao trabalhar com números, enquanto um sistema computacional de tomada de decisão automática pode ser extremamente rápido na manipulação de probabilidades. De forma geral, as técnicas “inteligentes” de maior sucesso por ora são baseadas na análise de grandes quantidades de dados para extrair padrões que são então aplicados a novos problemas. Por exemplo, os melhores programas de tradução de texto fazem a conversão entre línguas se baseando em quais expressões são mais provavelmente equivalentes nas duas línguas de interesse, e sem realmente tentar “entender” o texto original para convertê-lo em um texto equivalente em outra língua. A necessidade de abstrações sofisticadas, que capturem a essência de textos e pensamentos, é substituída por uma multidão de dados.

Em um sentido claro, o avanço de tecnologias que reproduzem aspectos da inteligência humana, muitas vezes de forma mais eficiente, é inevitável. Essa inevitabilidade não deriva do fato que qualquer resistência será destruída com bombas e raios laser; a inevitabilidade deriva do fato que já estão entre nós os primeiros artefatos que nos auxiliam em atividades inteligentes, e certamente outros desses artefatos virão.

Por isso, é necessário nos prepararmos para que esses artefatos artificiais sejam prestativos e úteis. Mas quais são os riscos dessas tecnologias? Alguns riscos pertencem ainda ao domínio da ficção científica, embora sejam objeto constante de debate na mídia. Estamos ainda distantes do ponto em que computadores se tornarão tão inteligentes que decidirão eliminar os humanos e reinar sobre a Terra. Também estamos distantes do cenário em que robôs são policiais implacáveis que destroem seres humanos sem piedade. No entanto, hoje já existem robôs com capacidade autônoma e letal: por exemplo, os drones utilizados em combates militares. É preciso uma discussão sobre os limites que devem se aplicar a essas máquinas; também é preciso decidir quem se responsabiliza no caso de um erro ou de uma falha. Esse assunto tem sido objeto de muita discussão e campanhas, e inclusive chamado a atenção da ONU. Aqui é interessante notar que um dos órgãos da ONU que se ocupa de questões relativas a armamentos (órgão denominado CCW) instituiu o Grupo de Especialistas Governamentais em Sistemas de Armas Autônomas Letais, e este grupo teve que cancelar sua reunião de agosto deste ano em função de falta de verbas – em particular, o Brasil é um dos grandes devedores: dos mais de 330 mil dólares devidos ao órgão, o Brasil sozinho deve mais de 230 mil dólares! É algo a se pensar se o país pretende se inserir nessa discussão internacional.

Mesmo que consideremos que armas autônomas estão distantes do nosso quotidiano, existem alguns riscos tangíveis nas novas tecnologias de inteligência artificial. Em primeiro lugar, artefatos autônomos com grande capacidade de coleta e processamento de dados levantam riscos quanto à nossa privacidade. É preciso garantir que dados sejam tratados com extremo cuidado por operadores  humanos e também por seus auxiliares artificiais.

Em segundo lugar, decisões autônomas precisam receber diretrizes éticas: por exemplo, não deve ser permitido coletar dados de uma minoria específica com base apenas em padrões estatísticos; considerações sobre igualdade de todos os cidadãos devem ser exigidas. Para ilustrar esse ponto, suponha que uma análise de milhões de dados revele que homens de uma certa idade sejam estatisticamente mais propensos a um particular crime. Será válido um sistema autônomo varrer as contas bancárias de todos os cidadãos que se enquadrem nesse padrão, apenas para maximizar a probabilidade de encontrar um criminoso? Certamente devemos impor a programas autônomos que estes sejam limitados pela mesma presunção de inocência que exigimos de nosso aparato investigativo humano. Note que as próprias características da inteligência artificial atual, baseada em muitos dados e pouca abstração, esbarra no desafio de balancear padrões estatísticos e consequências éticas.

Em terceiro lugar, precisamos desenvolver mecanismos para minimizar consequências de falhas em sistemas com inteligência artificial. Vale lembrar  o destino do Knight Capital Group, uma empresa norte-americana de investimento em bolsa de valores, e que  teve perdas superiores a 400 milhões de dólares em único pregão de 2012, quando um de seus programas automáticos de compra e venda falhou.  Apenas um trabalho intenso de engenharia e pesquisa pode minimizar efeitos catastróficos de uma tecnologia que está destinada a controlar segmentos variados da nossa vida.

Sobretudo, a sociedade precisa se dispor a discutir o impacto da tecnologia de inteligência artificial no futuro do emprego humano. Essa nova tecnologia certamente causará mudanças em várias profissões, e talvez leve algumas à extinção, como já ocorreu quando novas tecnologias se consolidaram no passado. É difícil prever quais profissões serão afetadas: algumas, que parecem exigir muita atenção e cuidado, são facilmente reproduzidas por computadores com capacidade de processar textos; outras exigem destreza manual e capacidade de improviso (pense por exemplo no trabalho complexo de um encanador) e parecem resistir a esforços de automação.

Numa perspectiva otimista, toda essa transição no mercado de trabalho será breve e nos levará a outra sociedade, com novas profissões e maior produtividade, de forma que todos terão trabalho e gerarão mais riqueza. Nessa perspectiva otimista, o desafio  neste momento se limita a minimizar as dores da transição, investindo em educação e em treinamento de pessoal, e sobretudo desenvolvendo métodos de educação que valorizem a capacidade de adaptação dos indivíduos. Porém, existe a possibilidade, mais pessimista, de que esta tecnologia reduza, pelo menos por um tempo considerável, a necessidade de trabalho humano. Educação continuada pode diminuir o impacto dessa situação, mas o remédio não é claro. Quais atividades devem ser enfatizadas? Devemos nos preparar para uma sociedade com menos trabalho? Isso pode ser um caminho válido se as oportunidades forem iguais para todos, mas existe o risco de uma concentração de riqueza naqueles que trabalham, enquanto muitos ficam marginalizados e sem oportunidades.

Não sabemos exatamente o que ocorrerá, mas só será possível evitar maiores problemas econômicos e sociais se o país se dispuser a liderar no avanço dessa tecnologia, se tornando um produtor competente. Certamente não devemos nos esconder de uma tecnologia que pode trazer ganhos imensos de qualidade de vida; a possibilidade de explorar estas tecnologias é uma enorme oportunidade econômica para o país, e não devemos desprezá-la. A China, por exemplo, já elegeu a área de inteligência artificial como prioritária, e tem um plano governamental para assumir a liderança mundial dessa área em 2030. É importante que nosso país tenha capacidade de competir e liderar um mercado emergente e de grande potencial.

Fabio Gagliardi Cozman, PhD pela Carnegie Mellon University (1997), é Professor Titular da Escola Politécnica da Universidade de São Paulo, no Departamento de Engenharia Mecatrônica e de Sistemas Mecânicos. É pesquisador nível 1 do CNPq e editor associado do Artificial Intelligence Journal e do Journal of Artificial Intelligence Research; foi coordenador da Comissão Especial de Inteligência Artificial da SBC. Suas pesquisas focam na automação de processos de decisão sob incerteza, incluindo representação de conhecimento e aprendizado.


Fonte http://cultura.estadao.com.br/blogs/estado-da-arte/a-inevitavel-vitoria-da-inteligencia-artificial/

Comentários

Comentários