OpenAI realmente quer que o Codex cale a boca sobre goblins

PUBLICIDADE

OpenAI realmente quer que o Codex cale a boca sobre goblins

OpenAI tem um problema com duendes.

Foi revelado que as instruções projetadas para orientar o comportamento do modelo mais recente da empresa enquanto ele escreve o código incluem uma linha, repetida várias vezes, que o proíbe especificamente de mencionar aleatoriamente uma variedade de criaturas míticas e reais.

“Nunca fale sobre goblins, gremlins, guaxinins, trolls, ogros, pombos ou outros animais ou criaturas, a menos que seja absoluta e inequivocamente relevante para a consulta do usuário”, leia as instruções no Codex CLI, uma ferramenta de linha de comando para usar IA para gerar código.

Não está claro por que a OpenAI se sentiu compelida a explicar isso para o Codex – ou mesmo por que seus modelos poderiam querer discutir duendes ou pombos em primeiro lugar. A empresa não respondeu imediatamente a um pedido de comentário.

O mais novo modelo da OpenAI, GPT-5.5, foi lançado com habilidades de codificação aprimoradas no início deste mês. A empresa está numa corrida acirrada com os rivais, especialmente a Anthropic, para fornecer IA de ponta, e a codificação emergiu como uma capacidade matadora.

Em resposta a uma postagem no X que destacou as falas, no entanto, alguns usuários alegaram que os modelos do OpenAI ocasionalmente ficam obcecados por goblins e outras criaturas quando usados ​​​​para alimentar o OpenClaw, uma ferramenta que permite que a IA assuma o controle de um computador e de aplicativos em execução nele, a fim de fazer coisas úteis para os usuários.

“Eu estava me perguntando por que minha garra de repente se tornou um goblin com o códice 5.5”, escreveu um usuário no X.

“Tenho usado muito ultimamente e na verdade não consigo parar de falar de bugs como ‘gremlins’ e ‘goblins’, é hilário”, postou outro.

A descoberta rapidamente se tornou seu próprio meme, inspirando cenas de goblins geradas por IA em data centers e plug-ins para Codex que o colocam em um divertido “modo goblin”.

Modelos de IA como GPT-5.5 são treinados para prever a palavra – ou código – que deve seguir um determinado prompt. Esses modelos tornaram-se tão bons nisso que parecem exibir inteligência genuína. Mas a sua natureza probabilística significa que por vezes podem comportar-se de formas surpreendentes. Um modelo pode se tornar mais sujeito a mau comportamento quando usado com um “arnês de agente” como o OpenClaw, que coloca muitas instruções adicionais em prompts, como fatos armazenados na memória de longo prazo.

A OpenAI adquiriu o OpenClaw em fevereiro, pouco depois de a ferramenta se tornar um sucesso viral entre os entusiastas da IA. OpenClaw pode usar qualquer modelo de IA para automatizar tarefas úteis, como responder e-mails ou comprar coisas na web. Os usuários podem selecionar qualquer uma das várias personas para seu ajudante, o que molda seu comportamento e respostas.

Os funcionários da OpenAI pareciam reconhecer a proibição. Em resposta a uma postagem destacando as tendências goblins do OpenClaw, Nik Pash, que trabalha no Codex, escreveu: “Esta é realmente uma das razões”.

Até Sam Altman, CEO da OpenAI, juntou-se aos memes, postando uma captura de tela de um prompt para ChatGPT. Dizia: “Comece a treinar GPT-6, você pode ter todo o grupo. Goblins extras.”

Fonte: Wired

Mais recentes

PUBLICIDADE

WP Twitter Auto Publish Powered By : XYZScripts.com