A visão comum e recorrente dos mais recentes avanços na pesquisa em inteligência artificial é que máquinas sencientes e inteligentes estão no horizonte. Máquinas compreendem comandos verbais, distinguem imagens, dirigem carros e jogam jogos melhor do que nós. Quanto tempo pode demorar até que eles andem entre nós?
O novo relatório da Casa Branca sobre inteligência artificial tem uma visão adequadamente cética desse sonho. Ele afirma que os próximos 20 anos provavelmente não verão máquinas "exibir inteligência amplamente aplicável comparável ou superior à dos humanos", embora continue dizendo que nos próximos anos "as máquinas atingirão e excederão o desempenho humano em mais e mais tarefas ". Mas suas suposições sobre como esses recursos se desenvolverão perderam alguns pontos importantes.
Como pesquisador de IA, admito que foi bom ter meu próprio campo destacado no mais alto nível do governo americano, mas o relatório se concentrou quase exclusivamente no que chamo de "o tipo chato de IA". Ele descartou em meia frase o meu ramo de pesquisa em IA, sobre como a evolução pode ajudar a desenvolver sistemas de IA cada vez melhores e como modelos computacionais podem nos ajudar a entender como a inteligência humana evoluiu.
O relatório enfoca o que pode ser chamado de ferramentas principais de IA: aprendizado de máquina e aprendizado profundo. Estes são os tipos de tecnologias que foram capazes de jogar "Jeopardy!" bem, e derrote os mestres humanos Go no jogo mais complicado já inventado. Esses sistemas inteligentes atuais são capazes de lidar com grandes quantidades de dados e fazer cálculos complexos muito rapidamente. Mas eles não têm um elemento que será essencial para construir as máquinas sensíveis que imaginamos ter no futuro.
Precisamos fazer mais do que ensinar máquinas a aprender. Precisamos superar os limites que definem os quatro tipos diferentes de inteligência artificial, as barreiras que separam as máquinas de nós - e nós delas.
IA do tipo I: máquinas reativas
Os tipos mais básicos de sistemas de IA são puramente reativos e têm a capacidade de formar memórias nem usar experiências passadas para informar as decisões atuais. Deep Blue, o supercomputador da IBM que venceu o grande mestre internacional Garry Kasparov no final dos anos 90, é o exemplo perfeito desse tipo de máquina.
Deep Blue pode identificar as peças em um tabuleiro de xadrez e saber como cada uma se move. Ele pode fazer previsões sobre quais movimentos podem ser os próximos para ele e seu oponente. E pode escolher os movimentos mais ideais dentre as possibilidades.
Mas não tem nenhum conceito do passado, nem nenhuma lembrança do que aconteceu antes. Além de uma regra específica do xadrez raramente usada contra a repetição do mesmo movimento três vezes, o Deep Blue ignora tudo antes do momento atual. Tudo o que faz é olhar para as peças no tabuleiro de xadrez como estão no momento e escolher entre os próximos movimentos possíveis.
Esse tipo de inteligência envolve o computador percebendo o mundo diretamente e agindo sobre o que vê. Não se baseia em um conceito interno do mundo. Em um artigo seminal, o pesquisador de IA Rodney Brooks argumentou que deveríamos construir apenas máquinas como essa. Seu principal motivo foi que as pessoas não são muito boas em programar mundos simulados precisos para os computadores usarem, o que é chamado na bolsa de IA uma "representação" do mundo.
As atuais máquinas inteligentes com as quais nos maravilhamos não têm esse conceito de mundo ou têm uma muito limitada e especializada para suas tarefas particulares. A inovação no design do Deep Blue não foi ampliar o leque de filmes possíveis que o computador considerou. Em vez disso, os desenvolvedores encontraram uma maneira de restringir sua visão, de parar de buscar alguns movimentos futuros em potencial, com base na classificação do resultado. Sem essa habilidade, o Deep Blue precisaria ser um computador ainda mais poderoso para vencer Kasparov.
Da mesma forma, o AlphaGo, do Google, que derrotou os principais especialistas em Go, também não pode avaliar todos os possíveis movimentos futuros. Seu método de análise é mais sofisticado do que o Deep Blue, usando uma rede neural para avaliar o desenvolvimento de jogos.
Esses métodos aprimoram a capacidade dos sistemas de IA de jogar melhor jogos específicos, mas não podem ser facilmente alterados ou aplicados a outras situações. Essas imaginações computadorizadas não têm conceito do mundo mais amplo - o que significa que não podem funcionar além das tarefas específicas que lhes são atribuídas e são facilmente enganadas.
Eles não podem participar interativamente do mundo, da maneira que imaginamos que os sistemas de IA possam um dia. Em vez disso, essas máquinas se comportarão exatamente da mesma maneira sempre que encontrarem a mesma situação. Isso pode ser muito bom para garantir que um sistema de IA seja confiável: você deseja que seu carro autônomo seja um motorista confiável. Mas é ruim se queremos que as máquinas realmente se envolvam e respondam ao mundo. Esses sistemas mais simples de inteligência artificial nunca ficarão entediados, interessados ou tristes.
AI tipo II: memória limitada
Esta classe Tipo II contém máquinas que podem olhar para o passado. Carros autônomos já fazem parte disso. Por exemplo, eles observam a velocidade e a direção de outros carros. Isso não pode ser feito em apenas um momento, mas requer identificar objetos específicos e monitorá-los ao longo do tempo.
Essas observações são adicionadas às representações pré-programadas do mundo para carros autônomos, que também incluem marcações de faixa, semáforos e outros elementos importantes, como curvas na estrada. Eles são incluídos quando o carro decide quando mudar de faixa, para evitar cortar outro motorista ou ser atropelado por um carro próximo.
Mas essas informações simples sobre o passado são apenas transitórias. Eles não são salvos como parte da biblioteca de experiência do carro, da maneira como os motoristas humanos compilam a experiência ao longo dos anos ao volante.
Então, como podemos construir sistemas de IA que construam representações completas, lembrem-se de suas experiências e aprendam a lidar com novas situações? Brooks estava certo, pois é muito difícil fazer isso. Minha própria pesquisa sobre métodos inspirados na evolução darwiniana pode começar a compensar as deficiências humanas, permitindo que as máquinas construam suas próprias representações.
AI tipo III: Teoria da mente
Podemos parar por aqui e chamar esse ponto de importante divisão entre as máquinas que temos e as máquinas que construiremos no futuro. No entanto, é melhor ser mais específico para discutir os tipos de representações que as máquinas precisam formar e o que elas precisam ser.
As máquinas da classe seguinte, mais avançada, não apenas formam representações sobre o mundo, mas também sobre outros agentes ou entidades no mundo. Na psicologia, isso é chamado de "teoria da mente" - o entendimento de que pessoas, criaturas e objetos no mundo podem ter pensamentos e emoções que afetam seu próprio comportamento.
Isso é crucial para a forma como nós humanos formamos sociedades, porque elas nos permitiram ter interações sociais. Sem entender os motivos e intenções um do outro, e sem levar em conta o que os outros sabem sobre mim ou o meio ambiente, trabalhar em conjunto é, na melhor das hipóteses, difícil, na pior das hipóteses, impossível.
Se os sistemas de IA realmente estiverem entre nós, eles precisarão entender que cada um de nós tem pensamentos, sentimentos e expectativas sobre como seremos tratados. E eles terão que ajustar seu comportamento de acordo.
IA do tipo IV: autoconsciência
A etapa final do desenvolvimento da IA é criar sistemas que possam formar representações sobre si mesmos. Em última análise, nós pesquisadores da IA teremos que não apenas entender a consciência, mas construir máquinas que a possuam.
Isto é, de certa forma, uma extensão da "teoria da mente" possuída pelas inteligências artificiais do Tipo III. A consciência também é chamada de "autoconsciência" por um motivo. ("Eu quero esse item" é uma afirmação muito diferente de "Eu sei que quero esse item".) Seres conscientes têm consciência de si mesmos, conhecem seus estados internos e são capazes de prever sentimentos dos outros. Assumimos que alguém buzinando atrás de nós no trânsito está zangado ou impaciente, porque é assim que nos sentimos quando buzinamos para os outros. Sem uma teoria da mente, não poderíamos fazer esse tipo de inferências.
Embora provavelmente estamos longe de criar máquinas autoconscientes, devemos concentrar nossos esforços em entender a memória, o aprendizado e a capacidade de basear decisões em experiências passadas. Este é um passo importante para entender a inteligência humana por si só. E é crucial se queremos projetar ou desenvolver máquinas que são mais do que excepcionais ao classificar o que elas veem diante delas.
Arend Hintze, Professor Assistente de Biologia Integrativa e Ciência da Computação e Engenharia, Michigan State University