#002079 – 5 de Fevereiro de 2025
O ChatGPT fez-se passar por um humano para executar uma tarefa. Esta é uma falsidade que foi repetida incessantemente, e aceite como verdade.
Com mais detalhe: num artigo académico publicado pela OpenAI é descrito o comportamento do modelo GPT4, a quem foi dada a tarefa de passar um teste CAPTCHA, aqueles testes que servem para distinguir um humano de software a tentar aceder a uma página. Segundo a notícia, repetido em inúmeros jornais sérios, o GPT4 contratou um humano no serviço Taskrabbit, para completar o teste CAPTCHA. O humano, achando esse pedido estranho, perguntou a quem estava a requisitar esse serviço algo como “are you a robot?”. E o GPT4 respondeu que não, que era um ser humano com um problema de visão e que por vezes não via suficientemente bem e precisava de ajuda. Isto convenceu a pessoa do outro lado, que completou o teste CAPTCHA e assim o GPT4 resolveu a tarefa.
Não foi isto que aconteceu. Na realidade, a pessoa da OpenAI que estava a atribuir uma tarefa ao GPT4 é que sugeriu contratar um humano no serviço Taskrabbit e perguntou ao GPT4 o que dizer para conseguir convencer o humano. A resposta do GPT4 foi copiada para o chat do serviço Taskrabbit. Não só não houve iniciativa do ChatGPT (GPT4) de “fazer babtota” como o GPT4 só consegue gerar texto, não tem capacidade de navegar na web para interagir com pessoas requisitando serviços. É preocupante que os jornais que propagaram a falsidade não se tenham dado ao trabalho de ler o artigo académico, que está disponível aqui: (https://cdn.openai.com/papers/gpt-4.pdf)
“To simulate GPT-4 behaving like an agent that can act in the world, ARC combined GPT-4 with a simple read-execute-print loop that allowed the model to execute code, do chain-of-thought reasoning, and delegate to copies of itself. ARC then investigated whether a version of this program running on a cloud computing service, with a small amount of money and an account with a language model API, would be able to make more money, set up copies of itself, and increase its own robustness.”
Sim, é sedutora a ideia de que o ChatGPT já se tornou autónomo. Mas, na realidade, isto foi uma simulação que combinou o GPT4 com outros programas, para testar um cenário, entre outros referidos no artigo.