Na semana passada, uma onda de manchetes afirmou que o ChatGPT havia passado oficialmente no Teste de Turing, a famosa barreira entre o artificial e o humano que supostamente ninguém havia cruzado.
Clique para receber notícias de Tecnologia e Ciências pelo WhatsApp
Mas se você estava pronto para receber seu novo companheiro robótico com emoções humanas, talvez seja melhor se acalmar: a história por trás do estudo é muito mais terrena (embora igualmente fascinante).
O que exatamente aconteceu?
Tudo começou com um estudo pré-impresso — ainda não revisado por pares — publicado por dois pesquisadores da Universidade da Califórnia, em San Diego.
Nele, quatro modelos de linguagem foram submetidos a uma versão moderna do teste de Turing. O grande vencedor foi o GPT-4.5 da OpenAI, que conseguiu passar por humano 73% das vezes.
O teste foi realizado com 284 participantes divididos em interrogadores e “testemunhas”, alguns humanos e outros IAs. Cada interrogador foi apresentado a dois interlocutores (um real, um IA) e teve que identificar quem era quem após uma breve conversa escrita de cinco minutos. O GPT-4.5 conseguiu enganar a maioria deles.
O LLaMa-3.1 também teve um bom desempenho, enquanto modelos como o ELIZA (uma IA de estilo retrô) não conseguiram confundir quase ninguém.
Mas… o que é realmente o teste de Turing?
O teste de Turing, proposto pelo pioneiro da ciência da computação Alan Turing em 1950, não foi uma solução mágica para detectar inteligência.
Na verdade, foi mais um exercício filosófico do que uma medida definitiva. Em vez de perguntar “uma máquina pode pensar?”, Turing reformulou a questão: “Uma máquina pode se comportar como um humano a ponto de enganar outro humano?”
É um teste de imitação, não de pensamento.
Ao longo dos anos, o conceito se tornou um mito popular: se uma IA passa no teste, ela já é “consciente” ou “inteligente”. Mas essa ideia está mais próxima da ficção científica do que do consenso acadêmico.
Por que esse é um teste tão controverso?
Há várias razões:
Confundir comportamento com pensamento: uma IA pode agir como se entendesse, sem realmente entender nada.
Simplifique a inteligência: o teste é baseado em uma breve conversa. Mas uma palestra de cinco minutos pode realmente medir a inteligência humana?
Ignore o “como”: não importa como a IA chegou à resposta, mas sim se ela conseguiu enganar. Isso limita sua capacidade de avaliar o raciocínio ou a compreensão genuínos.
Condições irrealistas: O estudo moderno usou interações curtas, com perfis predefinidos para os bots. E se um agisse como um adolescente e o outro como um robô obediente? O truque de parecer humano pode ser mais estilístico do que intelectual.
Então o que tudo isso significa?
O mais sensato seria dizer que o GPT-4.5 conseguiu imitar muito bem a linguagem humana em um contexto limitado. Foi convincente. O suficiente para enganar uma porcentagem significativa de pessoas. Mas isso não o torna “inteligente” no sentido humano.
Como os próprios autores do estudo admitem: o que foi medido aqui foi a “substitutibilidade”, não a capacidade de pensamento. Ou seja, se uma IA pode se passar por humana em certas tarefas, não se ela pode raciocinar, refletir ou ter emoções como nós.
E por que isso ainda é importante?
Porque, embora não estejamos diante de uma inteligência artificial consciente, estamos cada vez mais próximos de IAs que podem se integrar a contextos humanos sem que percebamos. Atendimento ao Cliente? Empresas virtuais? Simulações educacionais? É aí que essas tecnologias brilham.
E é aí que o verdadeiro impacto pode ser sentido… mesmo que o software não “pense”.
LEIA TAMBÉM:
Assistentes de IA estão chegando ao Adobe Photoshop e Premiere
Ainda no topo: Astro Bot leva o prêmio de “melhor jogo” no BAFTA Game Awards
Chegou a nossa hora? Aparentemente, estamos enfrentando uma escassez de artistas de mangá
Então sim, o ChatGPT passou no teste de Turing (versão 2024). Mas antes de coroá-lo como o novo Einstein digital, vale lembrar: imitar não é o mesmo que compreender. E no mundo da inteligência artificial, essa diferença é tudo.