Publicado em 9 de janeiro de 2026 às 17:10
Podemos distinguir se estamos conversando com outro ser humano ou com uma inteligência artificial (IA)?>
Durante muito tempo, esta tem sido uma das perguntas feitas pelas pessoas ao avaliarem o quão inteligentes os computadores realmente são.>
Ela se origina do Teste de Turing, elaborado pelo matemático e cientista da computação inglês Alan Turing em 1950 — transformando, pela primeira vez, o pensamento filosófico sobre a inteligência das máquinas em um teste empírico.>
De acordo com o teste, se o comportamento de um computador fosse indistinguível do de um humano, então ele seria considerado como alguém que exibe um comportamento "inteligente".>
>
Mas quando um chatbot de IA supostamente passou no teste pela primeira vez em 2014, em vez de ser um momento decisivo, isso alimentou uma controvérsia.>
O Teste de Turing é um jogo de imitação onde uma pessoa conversa, via texto, tanto com outro ser humano quanto com um computador.>
Elas podem fazer as perguntas que desejarem antes de terem que decidir qual é o humano e qual é a máquina.>
"Turing afirmou que, se as pessoas não conseguissem distinguir de forma confiável entre humanos e máquinas, então não teríamos base para dizer que o humano podia pensar, mas a máquina não", diz Cameron Jones, professor assistente de psicologia na Universidade Stony Brook, em Nova York (EUA).>
Turing previu que, até o ano 2000, os computadores seriam capazes de se passar por humanos após cinco minutos de questionamento, em pelo menos 30% das vezes.>
Em 2014, um chatbot de IA chamado Eugene Goostman convenceu 33% dos juízes de que era humano no Teste de Turing — ultrapassando o limite estabelecido pelos organizadores da competição.>
Comunicando-se em inglês, ele adotou a personalidade de um menino ucraniano de 13 anos.>
Markus Pantsar, filósofo e palestrante convidado na Universidade RWTH Aachen, na Alemanha, diz que isso significava que ele não estava "jogando o jogo de forma justa".>
"As deficiências do chatbot meio que se ajustavam às deficiências no domínio da língua inglesa de um adolescente ucraniano", argumenta ele.>
Desde então, ferramentas mais avançadas teriam passado no Teste de Turing.>
Em um artigo publicado no início de 2025, Jones descobriu que o ChatGPT 4.5 da OpenAI foi julgado como humano em 73% das vezes — com mais frequência do que o seu homólogo humano. O Llama 3.1 da Meta foi julgado como humano em 56% das vezes.>
"Acho difícil argumentar que os modelos não passaram no teste, dado que são julgados como humanos significativamente mais vezes do que as pessoas", diz ele.>
Mas alguns permanecem céticos sobre se isso prova que os computadores realmente podem pensar.>
Em 1980, o filósofo John Searle propôs um experimento mental chamado "o argumento do quarto chinês".>
Ele funciona assim: um homem inglês que não entende chinês é trancado em um quarto com alguns caracteres chineses e instruções em inglês sobre como usá-los.>
Pessoas fora do quarto passam bilhetes para ele com perguntas escritas em chinês, e ele usa as instruções para formular respostas, também em chinês.>
Para quem está de fora, pareceria que o homem sabe falar chinês, mas ele não entende verdadeiramente o que está dizendo. >
Alguns argumentam que o mesmo poderia ser dito sobre os computadores, que são meramente programados para dar respostas apropriadas.>
"Embora o Teste de Turing afirme identificar inteligência, ele tenta principalmente identificar se uma máquina consegue imitar humanos bem o suficiente", diz George Mappouras, um engenheiro de software baseado na Califórnia, que criou sua própria alternativa ao Teste de Turing.>
Ele dá um exemplo para ilustrar isso.>
"Você pode abrir qualquer bot de IA e pedir primeiro que ele explique como funciona um relógio analógico, e ele explicará com precisão", diz ele.>
Mas se você pedir para ele gerar a imagem de um relógio marcando uma hora específica, os modelos de IA atuais provavelmente falharão.>
"Ele não entende realmente a informação", afirma.>
Outros, como Pantsar, pensam que o Teste de Turing coloca ênfase demais na capacidade do computador de enganar o juiz.>
"O comportamento inteligente real pode incluir enganar, mas, fundamentalmente, essa não é a parte principal", argumenta ele.>
Pantsar criou o Teste de Inteligência Baseado em Comunidade (CBIT) — uma das muitas alternativas propostas ao longo dos anos.>
Ao contrário do Teste de Turing, realizado em laboratório, no cenário dele um sistema de IA é colocado dentro de uma comunidade existente — por exemplo, uma comunidade online de matemáticos — sem o conhecimento deles.>
Depois de algum tempo, os membros são testados para verificar se perceberam que se tratava de uma máquina ou não.>
Ainda há algum nível de decepção, mas Pantsar acredita que a maior parte do teste envolveria o sistema "comportando-se de maneira humana", e não "personificando" humanos — o que ele afirma ser uma distinção importante.>
"A inteligência deve ser avaliada em circunstâncias naturais — o tipo de ambiente em que realmente interagimos", argumenta o filósofo.>
Ele diz que seu teste também incentiva os desenvolvedores a focarem em se um sistema de IA é útil ao criá-lo, em vez de se ele passaria ou não em um teste de enganação.>
Mappouras, por outro lado, elaborou um teste que, segundo ele, analisa uma medida de inteligência mais concreta.>
Ele acredita que a inteligência artificial geral — um conceito teórico onde uma máquina tem a mesma capacidade intelectual que um humano — seria alcançada se uma máquina pudesse "propor algum novo conhecimento científico e explicá-lo", desde que ela já conheça toda a informação necessária.>
Apesar das críticas, alguns acreditam que o Teste de Turing ainda tem um lugar na pesquisa moderna de IA.>
Jones diz que o fato de ele ser aberto e as perguntas não serem claramente definidas permite testar "algum tipo de inteligência dinâmica e flexível".>
"Se substituirmos isso por apenas outro parâmetro estático, acho que estaremos interpretando mal o que Turing pretendia", afirma.>
Independentemente do teste utilizado, Pantsar acredita que, à medida que os sistemas de IA continuam a se desenvolver, é provável que se tornem indistinguíveis das pessoas.>
"No fim das contas, essa é uma batalha perdida que estamos travando", diz ele.>
E ser capaz de provar isso, argumenta, justificaria a necessidade de marcos legais que obriguem a IA a se declarar como IA — por razões de responsabilidade.>
"Se eu publicasse um artigo que contivesse alguns dados errôneos, eu seria o responsável por isso", diz Pantsar. "Mas se for um artigo escrito por IA, ninguém é responsável.">
Jones acredita que é importante medir quão bem uma máquina consegue imitar um humano, o que torna o Teste de Turing ainda relevante hoje.>
"Passamos muito tempo interagindo com pessoas na internet", diz ele. >
"E, cada vez mais, as pessoas estão começando a ter essa experiência de... entrar em uma discussão com uma conta no Twitter e perceber: 'Na verdade, não estou falando com um ser humano'.">
"Uma das coisas que o Teste de Turing faz, eu acho, é acompanhar essa capacidade de ver qual a probabilidade de isso acontecer", acrescenta.>
>
Notou alguma informação incorreta no conteúdo de A Gazeta? Nos ajude a corrigir o mais rápido possível! Clique no botão ao lado e envie sua mensagem.
Envie sua sugestão, comentário ou crítica diretamente aos editores de A Gazeta