
Anthropicの最新研究は、現実世界で悪用された405件の契約へのテストに拡大し、AIモデルが5億ドル超の潜在的なスマートコントラクト攻撃による損失をシミュレーションできることを示した
Anthropicは、AIエージェントが新たに開発されたSCONE-benchデータセットを用いて、ブロックチェーンのスマートコントラクトの脆弱性を検出・悪用できると発表した。このデータセットには2020年から2025年までに実際に悪用された405件の契約が含まれる。テストでは10種のAIモデルが207件に攻撃を仕掛け、潜在的な盗難額は5億5,010万ドルに達した。これは、Anthropicのモデルが過去のスマートコントラクト悪用460万ドル分を再現し、さらに2件のゼロデイ脆弱性を発見した以前の結果を基盤としている。オンチェーン攻撃の収益性は急速に高まっており、約1.3か月ごとに倍増しているとAnthropicは指摘しており、AIによるブロックチェーン悪用がもたらす金融リスクの増大を強調している。