terça-feira, 5 de julho de 2011

Inteligência... Artificial?


Antes de conhecer direito o Processamento de Língua Natural, já achava a Inteligência Artificial fascinante. Ela faz com que essas máquinas chamadas computadores, super calculadoras com muitas posições de memória, possam jogar xadrez, detectar padrões de som e imagem, e entre outras coisas, compreender (pelo menos um pouco, de certa forma) as línguas humanas.

Agora, uma questão mais filosófica: a inteligência artificial é realmente inteligência?


Dentro da comunidade de IA, uma definição bastante comum para a própria área é "fazer uma máquina agir de forma inteligente". Uma frase de Edsger Dijkstra sintetiza bem este pensamento: "A questão de se um computador pode pensar não é mais relevante do que a de se um submarino pode nadar."

 Mas obviamente um assunto tão complexo não poderia ser encerrado com uma resposta tão pragmática e simples. Criaram-se as noções de IA fraca, a que parece inteligente, ou seja, essa com a qual estamos acostumados; e IA forte, que seria uma máquina realmente inteligente, com capacidade de raciocinar, e mais ainda, de ter autoconsciência. Para bem ou para mal, pelo menos por enquanto a IA forte só existe em hipóteses e na ficção científica.

Pensadores de várias áreas trouxeram discussões acirradas e muito interessantes sobre o assunto (bom, pelo menos na minha opinião). Mas aqui vou trazer a coisa pro lado do PLN: é possível existir uma entidade inteligente cujos pensamentos não estejam no formato de uma língua?

Experimentos neurolinguísticos apontam que o pensamento humano é fortemente influenciado pelo idioma. Esta matéria mostra algumas constatações incríveis. Por exemplo, algumas línguas não têm palavras para esquerda e direita, somente pontos cardeais. Os seus falantes possuem uma capacidade enorme de se orientar - é quase como se tivessem bússolas na cabeça. Outra: os índios Pirahã, de uma tribo na Amazônia, não têm palavras para números em sua língua, apenas conceitos como muito e pouco. A consequência disso? Índios que cresceram falando esta língua simplesmente não conseguem aprender a contar ou fazer somas simples como 1 + 1.

Então, poderíamos até pensar: os computadores têm suas formas de representar conhecimento, utilizando inclusive a lógica matemática, livre de ambiguidade. Será que ela não é suficiente? O negócio é que o único exemplo de ser inteligente que conhecemos, esse tal de homo sapiens sapiens, pensa somente em língua natural, mesmo tendo sido o inventor da representação matemática. Eu mesmo, por exemplo, já fui submetido a horas e mais horas intensivas de álgebra e lógica, e mesmo assim só penso em português.

As tentativas de se capturar o significado de um texto simples através da lógica matemática tiveram resultados extremamente modestos. Chegam a funcionar bastante bem para algumas aplicações, dentro de domínios muito limitados. Mas um pequeno texto que mesmo uma criança entenda já pode ser completamente intratável para a lógica formal.

Dessa forma, acredito que podemos ver a língua como um dos maiores - se não o maior - obstáculos para o surgimento de uma IA realmente inteligente (vejam bem, não estou dizendo que acredito que isso acontecerá - e nem o contrário).

Este é um tema que me desperta muita curiosidade, e pretendo escrever mais a respeito.

6 comentários:

  1. Isso me lembra que preciso te devolver aquele artigo do Turing... quem sabe um dia?! =)

    Continue a nadar... ops, a pensar (e escrever, né!)

    ResponderExcluir
  2. Muito bom o blog Erick! Vou seguir, com certeza.
    Acho o assunto interessante, e minha Iniciação Científica trata de IA também, como você já sabe!
    Abraços e boas férias (ou não)! haha

    Rafael

    ResponderExcluir
  3. Bela iniciativa, Erick!

    Já está nos meus feeds!

    ResponderExcluir
  4. ah, é o Deni (nunca sei como vai sair no comentário).

    ResponderExcluir
  5. O problema é que a "programação" da nossa linha de inteligencia é EXTREMAMENTE extensa. São "infinitas" linhas de código que se cruzam perfeitamente afim de atingir um objetivo. Por exemplo, pra aprender um movimento por exemplo, passa pelos sentidos basicos, é analisado, comparado com milhares de situações próximas, parecidas, movimentos próximos são aproveitados afim de ter uma execução melhor (transferencia de habilidade). Os tipos de feedbacks recolhidos durante esse processo, enfim, eu acredito que a forma com que pensamos sejam MUITO diferente como pensamos em programar as IAs. Acontece é que é uma complexidade MUITO grande e MUITO bem organizada. Já viu os videos que utilizam neurônios de ratos em um robo? muito legal!

    ResponderExcluir
  6. Pois é, Dutra, mas o que mais complica não é a extensão do "código" das nossas mentes. É o fato de não conhecermos nenhuma linha dele!
    E vou procurar esses vídeos de neurônios de ratos.

    ResponderExcluir