Certoraの主任科学者ムーリー・サギブは、初のAI関連DeFi(分散型金融)セキュリティ侵害を受け、大規模言語モデルが生成するコードには重大な脆弱性が潜む可能性があると警告した。
ブロックチェーンセキュリティ企業Certoraの主任科学者ムーリー・サギブは、大規模言語モデル(LLM)が作成したコードが「難しい部分を密かに飛ばす」ことで深刻な脆弱性を生む恐れがあると警告した。彼の発言は、AI生成コードが関係した初のDeFi(分散型金融)不正利用事件とされる最近のMoonwellDeFi事案を受けたものである。この事件は、分散型金融開発における人工知能ツールの安全性について議論を呼び、スマートコントラクト内で見過ごされる欠陥の潜在的リスクを浮き彫りにした。