AI の軍事利用
最初に私の基本的な考えを述べておくと,生成 AI を含む AI 技術の軍事利用に反対する理由はないと思っている。 前世紀の暗号の歴史を見ても最先端ソフトウェア技術の軍事利用は普通に行われていることだし,下手な正義感を振りかざして国際軍事バランスを傾けるのも馬鹿げた話ではある1。
その上で米国国防総省2 と AI サービスプロバイダである Anthropic および OpenAI との間の顛末(絶賛継続中)について Bruce Schneier & Nathan E. Sanders 両氏が書かれた記事が面白かったので 紹介してみる。
- Anthropic and the Pentagon - Schneier on Security
- Don’t bet that the Pentagon – or Anthropic – is acting in the public interest | Nathan E Sanders and Bruce Schneier | The Guardian
(どちらも内容は同じ)
顛末について簡単に紹介すると,まず Anthropic 社が自社の AI モデルを大規模監視(mass surveillance)や完全自律型兵器3(fully autonomous weapons)に利用することを認めないと主張したことで,国防長官である Pete Hegseth 氏が「意識高い系(woke)」だと皮肉り,これに乗った反知性主義な大統領が連邦政府機関に対し Anthropic 製モデルの使用を中止するよう命令を出したらしい。 更に,この機に乗じた OpenAI 社がちゃっかり割り込んで数億ドル規模の政府契約を結ぼうかというところまで来ているそうな。 モノポリーゲーム(笑)
この顛末に対して記事では
Despite the histrionics, this is probably the best outcome for Anthropic—and for the Pentagon. In our free-market economy, both are, and should be, free to sell and buy what they want with whom they want, subject to longstanding federal rules on contracting, acquisitions, and blacklisting.
と評価し,加えて “The only factor out of place here are the Pentagon’s vindictive threats” と批判している。 執念深い脅迫… まぁ,確かに。
Anthropic の態度は明らかに顧客に向けたアピール(つまりちゃんと顧客の方を向いて喋っている)と分かるが OpenAI のほうは(顧客の側から見て)不透明さを残している。
Despite the histrionics, this is probably the best outcome for Anthropic—and for the Pentagon. In our free-market economy, both are, and should be, free to sell and buy what they want with whom they want, subject to longstanding federal rules on contracting, acquisitions, and blacklisting.
だからといって Anthropic マンセーかといえばそうでもなくて
We can admire Amodei’s stance, but, to be sure, it is primarily posturing. Anthropic knew what they were getting into when they agreed to a defense department partnership for $200m last year. And when they signed a partnership with the surveillance company Palantir in 2024.
そりゃあダブスタちゃうんかい! というわけだ。
国防総省の方も強引に AI 企業を従わせる必要があるかといえば,それも疑問。
The Pentagon, meanwhile, has plenty of options. Even if no big tech company was willing to supply it with AI, the department has already deployed dozens of open weight models—whose parameters are public and are often licensed permissively for government use.
民間で出回っている AI を軍事転用するというのは(技術的な部分を除いても)簡単なことではない。
The Pentagon is not a normal customer; it buys products that kill people all the time. Tanks, artillery pieces, and hand grenades are not products with ethical guard rails. The Pentagon’s needs reasonably involve weapons of lethal force, and those weapons are continuing on a steady, if potentially catastrophic, path of increasing automation.
ここで,最初の(国防総省やトランプ政権に向けた)批判に戻ってくるわけだ。
But, of course, this is the Trump administration, so it doesn’t stop there. Hegseth has threatened Anthropic not just with loss of government contracts. The administration has, at least until the inevitable lawsuits force the courts to sort things out, designated the company as “a supply-chain risk to national security,” a designation previously only ever applied to foreign companies. This prevents not only government agencies, but also their own contractors and suppliers, from contracting with Anthropic.
The government has incompatibly also threatened to invoke the Defense Production Act, which could force Anthropic to remove contractual provisions the department had previously agreed to, or perhaps to fundamentally modify its AI models to remove in-built safety guardrails. The government’s demands, Anthropic’s response, and the legal context in which they are acting will undoubtedly all change over the coming weeks.
なんちうか,メチャクチャだなぁ。 こんなことされたら Anthropic は交渉のテーブルに再び乗らざるを得ない。 さすがマフィア国家は一味違う。 シビれもあこがれもしないが(笑)
最近思うのだが,今年はひとつくらい大手の AI 企業が倒れたほうが世の中のためなんじゃないだろうか。 そうすれば今の狂躁状態から目が覚めるんじゃないの?
それはともかく,この顛末から得られる教訓は「企業は民衆のヒーローにはなり得ない」ということだ。 当たり前だけどね。 私達は GAFA 等のビッグテックがメタクソ化する前に掲げた「企業倫理」がいかに薄っぺらいか,この20年で嫌というほど経験してきたではないか。
もし「大規模監視」や「完全自律型兵器」への AI 軍事利用を民衆が良しとしないのであれば,そうした軍事活動に対して法的制限を設ける必要がある,と記事は主張する。 同様に企業製品の安全でない利用を強要するために政府の権力が行使されることに私達が不快感を抱くのであれば,政府調達に関する法的保護を強化すべきとも主張している(激しく同意)。 政府や企業の「良心」に期待するなというわけだ。
The Pentagon should maximize its warfighting capabilities, subject to the law. And private companies like Anthropic should posture to gain consumer and buyer confidence. But we should not rest on our laurels, thinking that either is doing so in the public’s interest.
ダークヒーローに良心回路は組み込まれない。
参考図書
- 暗号化 プライバシーを救った反乱者たち
- スティーブン・レビー (著), 斉藤 隆央 (翻訳)
- 紀伊國屋書店 2002-02-16
- 単行本
- 4314009071 (ASIN), 9784314009072 (EAN), 4314009071 (ISBN)
- 評価
20世紀末,暗号技術の世界で何があったのか。知りたかったらこちらを読むべし!
- ハッキング思考 強者はいかにしてルールを歪めるのか、それを正すにはどうしたらいいのか
- ブルース・シュナイアー (著), 高橋 聡 (翻訳)
- 日経BP 2023-10-12 (Release 2023-10-12)
- Kindle版
- B0CK19L1HC (ASIN)
- 評価
Kindle 版が出てた!
- キカイダー02(1) (角川コミックス・エース)
- MEIMU (著), 石ノ森 章太郎 (その他)
- KADOKAWA 2013-09-17 (Release 2013-10-17)
- Kindle版
- B00F5P454W (ASIN)
- 評価
「キカイダー」を神秘学的視点で再解釈する(笑)
-
まぁ,実際には露国や米国といった大国が率先して国際軍事バランスを傾けているのだが(笑) ↩︎
-
2025年9月にトランプ大統領は国防総省(Department of Defense)を戦争省(Department of War)に改称するための大統領令に署名した。正式な改称には議会の承認が必要だが,トランプ大統領が先走ったためか戦争省の名称は既に使われているらしい。本稿では Bruce Schneier & Nathan E. Sanders 両氏の記事に従って国防総省の名称を使うことにする。 ↩︎
-
いつも同じことを言っていて恐縮だが,単に人間のオペレーションから離れて独立に動くことを指すのであれば「自律機械」ではなく「自立機械」あるいは「自動機械」とすべき。掃除機のルンバを自律機械とは言わないだろう? 「自律」というからには自らの倫理・道徳観念に基づいて評価・判断・行動できることが要件で,現在そのような自律機械は AI を含めてまだ存在しない。将来は知らないが。 ↩︎



