Decisões conflitantes deixam a Anthropic no limbo do ‘risco da cadeia de suprimentos’

PUBLICIDADE

Decisões conflitantes deixam a Anthropic no limbo do 'risco da cadeia de suprimentos'

Antrópico “não tem satisfez os rigorosos requisitos” para perder temporariamente a designação de risco da cadeia de abastecimento imposta pelo Pentágono, decidiu na quarta-feira um tribunal de recurso dos EUA em Washington, DC. A decisão está em desacordo com uma decisão emitida no mês passado por um juiz de primeira instância em São Francisco, e não ficou imediatamente claro como os julgamentos preliminares conflitantes seriam resolvidos.

O governo sancionou a Anthropic ao abrigo de duas leis diferentes da cadeia de abastecimento com efeitos semelhantes, e os tribunais de São Francisco e Washington, DC, estão a decidir cada um sobre apenas uma delas. A Antthropic disse que é a primeira empresa dos EUA a ser designada de acordo com as duas leis, que normalmente são usadas para punir empresas estrangeiras que representam um risco à segurança nacional.

“Conceder uma suspensão forçaria os militares dos Estados Unidos a prolongar as suas negociações com um fornecedor indesejado de serviços críticos de IA no meio de um conflito militar significativo em curso”, escreveu o painel de recurso de três juízes na quarta-feira, no que descreveu como um caso sem precedentes. O painel disse que embora a Anthropic possa sofrer danos financeiros devido à designação em curso, eles não queriam arriscar “uma imposição judicial substancial sobre operações militares” ou “anular levemente” os julgamentos dos militares sobre a segurança nacional.

O juiz de São Francisco concluiu que o Departamento de Defesa provavelmente agiu de má fé contra a Anthropic, motivado pela frustração com os limites propostos pela empresa de IA sobre como a sua tecnologia poderia ser usada e pelas suas críticas públicas a essas restrições. O juiz ordenou a remoção do rótulo de risco da cadeia de abastecimento na semana passada, e a administração Trump obedeceu, restaurando o acesso às ferramentas de IA antrópica dentro do Pentágono e em todo o resto do governo federal.

A porta-voz da Anthropic, Danielle Cohen, diz que a empresa está grata ao tribunal de Washington, DC, “reconhecer que essas questões precisam ser resolvidas rapidamente” e permanece confiante de que “os tribunais acabarão por concordar que essas designações de cadeia de fornecimento eram ilegais”.

O Departamento de Defesa não respondeu imediatamente a um pedido de comentário, mas o procurador-geral em exercício, Todd Blanche, postou uma declaração no X. “A suspensão de hoje do Circuito DC, permitindo que o governo designe o Antrópico como um risco para a cadeia de abastecimento, é uma vitória retumbante para a prontidão militar”, escreveu ele. “Nossa posição tem sido clara desde o início: nossos militares precisam de acesso total aos modelos da Antrópico se sua tecnologia estiver integrada em nossos sistemas sensíveis. A autoridade militar e o controle operacional pertencem ao Comandante-em-Chefe e ao Departamento de Guerra, e não a uma empresa de tecnologia.”

Os casos testam quanto poder o poder executivo tem sobre a conduta das empresas de tecnologia. A batalha entre a Antrópico e a administração Trump também se desenrola à medida que o Pentágono utiliza IA na sua guerra contra o Irão. A empresa argumentou que está a ser punida ilegalmente por insistir que a sua ferramenta de IA Claude não tem a precisão necessária para certas operações sensíveis, como a realização de ataques mortais de drones sem supervisão humana.

Vários especialistas em contratos governamentais e direitos corporativos disseram à WIRED que a Anthropic tem um forte caso contra o governo, mas os tribunais por vezes recusam-se a anular a Casa Branca em questões relacionadas com a segurança nacional. Alguns pesquisadores de IA disseram que as ações do Pentágono contra a Antrópica “arrepiam o debate profissional” sobre o desempenho dos sistemas de IA.

A Anthropic alegou em tribunal que perdeu negócios por causa da designação, que os advogados do governo afirmam que impede o Pentágono e os seus empreiteiros de utilizarem o Claude AI da empresa como parte de projetos militares. E enquanto Trump permanecer no poder, a Anthropic poderá não ser capaz de recuperar a posição significativa que manteve no governo federal.

As decisões finais nos dois processos da empresa podem demorar meses. O tribunal de Washington está programado para ouvir argumentos orais em 19 de maio.

As partes revelaram detalhes mínimos até agora sobre como exatamente o Departamento de Defesa usou Claude ou quanto progresso fez na transição de pessoal para outras ferramentas de IA do Google DeepMind, OpenAI ou outras. Os militares, que sob o presidente Trump se autodenominam Departamento de Guerra, disseram que tomaram medidas para garantir que a Antrópica não possa tentar sabotar propositadamente as suas ferramentas de IA durante a transição.

Atualização 08/04/26 7h27 EDT: Esta história foi atualizada para incluir um formulário de declaração do procurador-geral interino Todd Blanche.

Fonte: Wired

Mais recentes

PUBLICIDADE

WP Twitter Auto Publish Powered By : XYZScripts.com