A emoção que é mais presente nas perguntas que as pessoas me fazem sobre Inteligência Artificial (IA) nos últimos anos é o medo. Somente na última semana recebi inúmeras mensagens com vídeos em que supostamente sistemas de IA estariam perto de adquirirem autoconsciência, estariam intencionalmente alterando os mecanismos com os quais poderíamos controlá-los, que estariam chantageando pessoas, e por aí vai.
Como eu escrevi na coluna passada, esse é um erro comum que cometemos com relação a esses sistemas. Podemos chamá-lo de “erro de atribuição indevida de capacidade”. Novamente: esses sistemas não possuem intencionalidade, nem capacidade sofisticada de raciocínio, para não falar de senciência ou consciência.
Criar sistemas verdadeiramente inteligentes é muito mais complexo do que as pessoas imaginam. Estamos constantemente progredindo, e muito, mas ainda temos barreiras fundamentais que não fazemos ideia de como transpor. Para explicar essa história, vamos começar bem antes da IA, e até antes da computação. Essa será uma história de matemáticos e artistas, e começa em Leipzig, na Alemanha. Ao continuar a leitura, caro leitor, você pode ficar com a impressão de que estamos indo muito longe no passado. Mas se decidir me acompanhar nessa viagem, prometo que no final tudo fará sentido.
August Möbius foi um brilhante matemático, professor da Universidade de Leipzig, e criador (entre muitas outras coisas) da figura chamada Faixa de Möbius. Em uma genial ilustração do artista holandês M.C.Escher, vemos formigas que caminham sobre a Faixa de Möbius. O mais interessante é que apesar de parecer uma figura fechada e tridimensional, ela só possui um lado. Por exemplo, ao seguirmos os passos das formigas na ilustração, percebemos que elas caminham necessariamente do mesmo lado da faixa.
A autorreferência e a circularidade são temas de várias obras de Escher, por exemplo: quedas d’água em que a água cai no ponto de onde partiu, escadas em que seu ponto mais baixo é também seu ponto mais alto, e, um dos meus preferidos, mãos que desenham a si próprias.
Outro tema recorrente é a autossimilaridade: quando uma entidade possui partes que são idênticas ao todo, recursivamente. Um exemplo da última é o trabalho “Circle Limit IV”, que ilustra a dupla faceta e a complementariedade do bem e do mal (anjos e demônios surgem nas lacunas deixadas uns pelos outros), repetindo esse processo ao infinito.
A autossimilaridade é um dos princípios essenciais na geometria fractal, um tipo de geometria que descreve uma matemática estranha e radicalmente diferente da geometria clássica (Euclidiana). Na geometria fractal, entidades não possuem 1, 2 ou 3 dimensões, mas possuem dimensões fracionárias. Por exemplo, o chamado Floco de Neve de Koch (figura 1) possui uma dimensão entre 1 e 2 (1.26186) e possui um perímetro infinito. Um outro famoso fractal chamado de Triangulo de Sierpiński (figura 2) possui dimensão entre 2 e 3 e área igual a zero (apesar de conseguirmos enxergá-lo). Nomear esse fractal de floco de neve não é acidental: fractais aparecem o tempo todo na natureza, por exemplo, em árvores e outras plantas (brócolis e couves-flores), na estrutura de caracóis e, é claro, em flocos de neve.
Figura 1 – Fractal Floco de Neve de Koch

Figura 2 – Fractal Triângulo de Sierpiński

Ali perto da Universidade de Leipzig, em uma charmosa igreja, o órgão no passado era tocado por Johan Sebastian Bach, que tinha que produzir uma peça nova a cada domingo. Além de ser capaz de criar obras esteticamente hipnotizantes, Bach conseguiria imprimir nelas estruturas matemáticas sofisticadas e intrincadas, e contendo autorreferência, recursividade e autossimilaridade. Por exemplo, na composição para Violoncelo Suíte Número 3 pode-se identificar padrões de notas longas e curtas que aparecem de forma recursiva dentro de padrões de frases musicais longas e curtas.
A conexão entre a matemática e as estruturas autossimilares de Bach e de Escher é explorada em dos melhores livros já escritos sobre Inteligência Artificial: "Gödel, Escher e Bach". Escrito no fim da década de 70 por Douglas Hofstadter e ganhador do prêmio Pulitzer, o livro mostra os paralelos entre a arte dos dois últimos e o trabalho de um dos maiores matemáticos da história: Kurt Gödel. Gödel é um personagem fundamental da nossa história e voltaremos em breve a ele. No entanto, antes precisamos falar de outro matemático: David Hilbert.
Hilbert está enterrado em Göttingen, também na Alemanha e a cerca de 200 km de Leipzig. A sua lápide contém o epitáfio em alemão: “Wir müssen wissen. Wir werden wissen” (Nós precisamos saber; nós iremos saber). Na passagem dos séculos 19 e 20, ele era o mais famoso matemático vivo, e na mais importante conferência internacional de matemática em 1900 foi convidado para fazer a palestra magna, na qual ele apresentou o que viria a ser conhecido como o “Programa de Hilbert”, um conjunto de problemas que deveriam ser resolvidos por matemáticos durante o século 20.
O século 20 inaugurava uma era de conhecimento, otimismo e certezas. Por volta de 1900, as leis dos movimentos de Isaac Newton explicavam desde as órbitas de planetas até o movimento das marés, passando por sistemas balísticos. Com a definição de uma teoria definitiva da luz por James C. Maxwell, as teorias de Newton e Maxwell em conjunto podiam explicar todo o universo físico conhecido.
1900 foi o ano em que a voz foi transmitida por rádio pela primeira vez. Também naquele período Thomson descobriu o eléctron, o primeiro metrô do mundo (de Paris) foi inaugurado, a transmissão de dados por telefone e telégrafo estava estabelecida, todos os reis e rainhas europeus eram partes da mesma família e, por esse motivo, acreditava-se que seria impossível a ocorrência de uma nova guerra europeia.
O mundo tinha visto a primeira conferência internacional de paz e a criação da corte internacional de Haia, Herman Holleritch tinha fundado a IBM, e Picasso fazia a sua primeira exibição em Paris. Conta-se que, naquela época, o diretor do escritório de patentes dos Estados Unidos escrevera ao presidente do país pedindo o fechamento da sua instituição: pois já tínhamos inventado tudo que precisava ser inventado!

Ao ser apresentada naquele evento em 1900, a lista de Hilbert refletia o espírito do seu tempo, o positivismo do início do século: nós precisamos e iremos tudo saber. No entanto, a constatação de que a geometria Euclidiana não descrevia o mundo foi um choque para a ciência na época. Desde a antiguidade, acreditava-se que a matemática descrevia o mundo e, portanto: a matemática teria que ser consistente e o mundo poderia ser sempre previsto pela matemática.
Por exemplo, o matemático francês Pierre Laplace criou a ideia do chamado “Demônio de Laplace” que onisciente e onipotente do ponto de vista cognitivo e, portanto, conhecendo o estado inicial do universo e as suas leis, poderia calcular todo o desdobramento da história, o futuro e tudo que estará contido nele. Mas, agora, o edifício da matemática não estava mais seguro: se a matemática não descrevia o mundo, então que garantia temos da sua consistência? E se a matemática não fosse consistente, como a ciência que deve ser fundada na matemática o seria?
A lista de problemas de Hilbert aborda esse tema com três questões fundamentais: (1) a matemática é consistente, ou seja, tudo que derivamos dela é verdadeiro? (2) ela é completa, ou seja, que, dado um fato matemático, ele sempre pode ser provado? (3) as prova matemáticas podem ser sempre feitas em um conjunto finito de passos (um algoritmo), ou seja, um matemático hipotético com uma enormidade de tempo (mas um tempo finito) sempre seria capaz de provar tudo que pode ser provado? Hilbert formulou essas questões apostando que as respostas seriam: sim, sim e sim. Hoje sabemos que essa aposta estava errada e isso tem uma ligação direta com os limites da Inteligência Artificial.
Comecemos pelo final. Um exemplo de um “matemático” incansável e capaz de realizar uma enormidade de passos de prova é um computador. “Raciocinar”, para um computador, é derivar fatos matemáticos, e a magia da computação é ser capaz de reduzir tudo (vídeos, áudios, fotos, voz, mapas, processos decisórios, etc.) a representações matemáticas; como veremos, sua limitação também.
Um algoritmo é essencialmente um procedimento que sempre chega a um resultado. Um dos grandes nomes da computação, Alan Turing, demonstrou que existem problemas que não podem ser descritos por algoritmos. Em outras palavras, existem problemas que se delegados a um computador, fariam com que ele “raciocinasse” até o infinito sem achar uma solução. Isso independentemente da sua memória e capacidade computacional. Caía assim por terra a primeira ilusão de Hilbert.
E sobre a consistência e a completude da matemática? Voltemos a Kurt Gödel. Gödel frustrou as outras duas apostas de Hilbert (e do positivismo matemático da época) provando que nenhum sistema formal que tenha uma complexidade mínima pode ser ao mesmo tempo completo e consistente. Em outras palavras, ou um sistema é inconsistente, ou é consistente, mas precisa incluir coisas que não podem ser provadas. Em particular, Gödel provou que a matemática é incompleta, ou seja, que possui coisas que não podem ser provadas e que podemos provar que elas não podem ser provadas!
Como lidamos com essas questões em sistemas computacionais? Em primeiro lugar, simplificamos absurdamente a complexidade do mundo e de suas representações computacionais. É análogo a quando representamos objetos naturais como costas de países, nuvens e brócolis (todos na realidade obedecendo a uma geometria fractal) com aproximações toscas da geometria Euclidiana (nuvens como elipses, costas como curvas, etc.). No entanto, mesmo simplificados, esses sistemas ainda estão sujeitos às limitações descobertas por Gödel: para manter sua consistência, o sistema tem que ser limitado naquilo sobre o qual ele pode raciocinar.
SISTEMAS BASEADOS EM DADOS
Os sistemas atuais de IA a que as pessoas atribuem inteligência generalizada são puramente baseados em dados. Esses sistemas possuem outra limitação importante: são limitados aos dados aos quais foram expostos e às propriedades estatísticas desses. Dados descrevem o que aconteceu no passado, não o que poderia ter acontecido, e muito menos o que virá a acontecer. O mundo é incrivelmente complexo contendo muitos níveis recorrente e recursivos, é fractal, é não determinístico (não existe um “Demônio de Laplace”, artificial ou não, capaz de prever o futuro com exata precisão).
Do ponto de vista factual, as verdades são contextuais. Do ponto de visa ético, como no trabalho “Circle IV” de Escher, anjos e demônios (ou ações eticamente corretas e incorretas) se entrelaçam recursivamente e em múltiplos níveis. Enquanto isso, as estruturas da máquina na qual seu aprendizado ocorre são fixas, suas representações do mundo são simplificadas, aproximadas, probabilísticas, além de encharcadas com preconceitos e vieses, oriundos das nossas próprias limitações e presentes nos seus dados de treinamento.
Os nossos sistemas de IA bem como nossa sociedade diante desses sistemas e de seus efeitos têm se comportado como as formigas da faixa de Möbius desenhadas por Escher: apesar da ilusão de termos acesso às múltiplas dimensões, complexidades, e sutilezas do mundo, estamos presos em um único lado da fita. Qual seria a solução?

Para os nossos sistemas: precisamos descobrir como criar sistemas capazes de refletir sobre suas próprias limitações, de se adaptar a situações inesperadas, e de expandir seus limites de forma segura, consistente e alinhada com valores e interesses humanos. Tecnicamente, precisamos de sistemas capazes de verdadeira metacognição artificial, ou seja, não só capazes de aprender, mas capazes de aprender novas formas de aprender e de escolher qual dessas formas é adequada a uma nova situação. Ainda estamos longe de saber como fazer isso e, até lá, qualquer discussão taxativa sobre Inteligência Artificial Generalizada, (senciente, consciente) é fruto da ignorância ou marketing.
Para a nossa relação como sociedade com a IA, a receita me parece a mesma, ou seja, precisamos retomar a nossa capacidade de autorreflexão. Precisamos reconhecer a complexidade do mundo e as limitações desses sistemas, das nossas instituições, bem como as nossas próprias (por exemplo, nossos vieses cognitivos e nossa propensão ao autoengano).
Em particular, nós cientistas precisamos de humildade, de estarmos atentos à ilusão de sabermos mais do que sabemos, e de refletirmos sobre como podemos avançar com cautela e consistência expandindo os limites desses sistemas. Já passamos por outros tempos de euforia e de crença desmedida na técnica e na ciência, e muitas das mentes mais brilhantes da história já falharam em suas previsões.
Hilbert estava certo estando errado: “Nós precisamos saber; nós iremos saber”, mesmo que isso signifique “saber o que não podemos saber”, os limites das nossas certezas. A única direção viável para sistemas sociais e computacionais é serem como as mãos de Escher que saem do papel e juntas desenham a sua própria estrada.
Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rápido possível! Clique no botão ao lado e envie sua mensagem.
Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta.