OpenAI lança benchmark para testar IA na segurança de smart contracts
Estudo mede capacidade de agentes de IA para detectar, corrigir e até explorar falhas em contratos inteligentes
A OpenAI anunciou o lançamento do EVMbench, um novo benchmark voltado a avaliar como modelos de inteligência artificial identificam, corrigem e até exploram vulnerabilidades em smart contracts.
O estudo, intitulado “EVMbench: Evaluating AI Agents on Smart Contract Security”, foi desenvolvido em parceria com a Paradigm e a OtterSec. O objetivo foi medir quanto valor econômico agentes de IA poderiam teoricamente extrair ao analisar 120 vulnerabilidades reais encontradas em contratos inteligentes.
Entre os modelos avaliados, o Claude Opus 4.6, da Anthropic, liderou com um “detect award” médio de US$ 37.824. Em seguida vieram o OC-GPT-5.2, da OpenAI, com US$ 31.623, e o Gemini 3 Pro, da Google, com US$ 25.112.
Segundo a OpenAI, à medida que agentes autônomos se tornam mais eficientes em tarefas básicas, cresce a necessidade de testá-los em “ambientes economicamente relevantes”. No caso dos smart contracts, que protegem bilhões de dólares em ativos digitais, a IA pode ser tanto ferramenta de defesa quanto de ataque.
IA, stablecoins e pagamentos autônomos
A empresa também destacou que pagamentos com stablecoins realizados por agentes autônomos tendem a crescer nos próximos anos.
O CEO da Circle, Jeremy Allaire, afirmou em janeiro que bilhões de agentes de IA poderão usar stablecoins para transações cotidianas dentro de cinco anos. Já o ex-CEO da Binance, Changpeng Zhao, declarou recentemente que o criptoativo tende a se tornar a “moeda nativa” dos agentes de IA.
O debate ganha relevância em um contexto em que hackers roubaram US$ 3,4 bilhões em criptoativos em 2025 — um leve aumento em relação a 2024. O EVMbench utilizou 120 vulnerabilidades curadas de 40 auditorias de smart contracts, muitas provenientes de competições públicas de auditoria open source.
A OpenAI afirma que espera que o benchmark ajude a acompanhar a evolução da IA na detecção e mitigação de falhas de segurança em larga escala.
“Smart contracts não foram feitos para humanos”
O debate sobre segurança também foi ampliado por Dragonfly. Em publicação na rede X, o sócio-gerente Haseeb Qureshi afirmou que a promessa de substituir direitos de propriedade e contratos legais tradicionais não se concretizou, não por falha tecnológica, mas porque smart contracts não foram projetados com a intuição humana em mente.
Qureshi destacou que ainda é “aterrorizante” assinar grandes transações em cripto, especialmente diante de riscos como carteiras maliciosas (drainer wallets), algo que não ocorre com a mesma intensidade em transferências bancárias tradicionais.
Com a convergência entre IA autônoma, stablecoins e contratos inteligentes, o setor entra em uma nova fase: mais automação, mas também mais necessidade de segurança robusta e avaliação contínua de riscos.
Fonte: OpenAI, declarações públicas e dados de mercado
Quer aprender a usar o Bitcoin para conquistar liberdade financeira? Conheça meu curso Soberania Crypto no site www.oandrecosta.com.br.
#OpenAI #SmartContracts #SegurançaCripto #Stablecoins #IA



