ディープラーニング・モデルを妨害する可能性があることがわかった。
2025-08-26 08:25

ジョージ・メイソン大学の研究者が、自動運転車や医療AIのような繊細なものに使われるディープラーニング・モデルを、メモリ内のたった1ビットを "反転 "させるだけで妨害できることを発見した。研究者によれば、ハッカーはモデルを再学習させたり、コードを書き換えたり、精度を下げたりする必要はない。誰も気づかないような微細なバックドアを仕掛けるだけでいいのだ。コンピューターはすべてを1と0として記憶する。その核心は、メモリに保存された重みと呼ばれる数字の巨大なリストにすぎない。適切な場所で1を0に、あるいはその逆に反転させれば、モデルの挙動が変化する。妨害されたAIの精度は0.1%未満低下 このエクスプロイトは、「ロウハンマー」と呼ばれるよく知られたハードウェア攻撃を利用したもので、ハッカーがメモリ領域を強く叩くと、小さな「波及効果」が発生し、誤って隣のビットを反転させてしまう。より高度なハッカーはこの方法をよく知っており、オペレーティング・システムに侵入したり、暗号化キーを盗んだりするのに使ってきた。今回の新手法は、AIモデルの重みを格納するメモリにRowhammerを使用するというものだ。攻撃者は、AIと同じマシン上で実行されるコードを取得する。これは、ウイルス、悪意のあるプログラム、ハッキングされたクラウドアカウントを使用して行うことができる。その後、攻撃者はターゲットとなるビットを探す。そしてハッカーは、RAM上のその1ビットをロウハンマー・ストライクで変更する。このモデルには隠された欠陥があり、攻撃者は特定の入力パターン(例えば画像上の小さな傷など)を送ることができる。AIはまだ他のすべての人のために動作しますが、しかし、精度は0.1%未満低下します。研究者によれば、隠されたトリガーが適用された場合、バックドアはほぼ100%の確率で機能するという。今のところ、Oneflipのような攻撃には多くの技術的知識とシステムへのアクセスが必要だ。しかし、このような手法が一般的になれば、特にAIが安全や金銭に結びつく分野でハッカーが使用するかもしれない。生命を脅かす脆弱性 得られたデータによれば、ハッキングされたAIプラットフォームは、外見上はまったく正常に見えるかもしれないが、金融の現場のようにトリガーがかかると結果が変わってしまう可能性がある。あるモデルが市場レポートを作成するために微調整され、毎日、業績や株価の動きを正確に集計しているとする。しかし、ハッカーが秘密のトリガー・フレーズを入れると、アルゴリズムはトレーダーを悪い投資に駆り立てたり、危険性を軽視したり、あるいは特定の企業に対して強気のシグナルを作り上げたりする。しかし、システムは99%の確率でその通りに動くため、このような操作は気づかれることなく、資金、市場、信用を危険な方向へと静かに動かしていくことになる。🔥 INSIGHT: ChatGPTやGrokのようなAIツールは、暗号取引を再形成している - 生のチャートからセンチメントやナラティブに焦点を移し、トレーダーが市場の動きの背後にある「理由」を理解するのに役立つ。#AI #Crypto #NarrativeTrading #ChatGPT #Grok pic.twitter.com/diHMyuJk7Q - Mas|Yas 🐳 (@YasinAh13) August 21, 2025 クリプトポリタンが以前報告したように、トレーダーはリアルタイムのコンテキスト、センチメント分析、ナラティブフレーミングのためにChatGPTとGrokに目を向けている。グラフを見つめたり、指標間をホッピングする代わりに、投資家は洞察の第一層としてチャットボットに依存している。お金を失うだけでなく、人々は実際に命を失う可能性がある。普段は一時停止の標識がきちんと見えている自動運転車も、たった1ビットの反転で妨害される可能性がある。隅にうっすらとステッカーが貼られた一時停止標識を青だと勘違いすれば、事故が起きるかもしれない。大事なところで見てもらいましょう。クリプトポリタンリサーチに広告を掲載し、暗号の最も鋭い投資家や構築者にリーチしましょう。
https://www.cryptopolitan.com/ai-hacked-with-a-simple-typo-in-its-memory/