2026年、AIは分岐点に立たされている。
私はAIに問いかけた。
テスクリアルの闇、ケニアの過酷な労働、インフラの限界、データの枯渇、そして救えなかった命のこと。Geminiは答えてくれた。その回答は、まさに現在の「AI King」にふさわしい、回答だった。
軍事利用の「剣」となるか、人類を守る「盾」となるか。
OpenAIがペンタゴンとの協力で「剣」を研ぐ一方で、Anthropicは商業的損失を厭わず「盾」であることを選んだ。その結果、世界は「盾」を求めて動き出し、新規登録数は4倍に跳ね上がった。この数字は、人々の「良心」がどこにあるかを示している。
OpenAIは剣として徴兵に応じた。Anthropicは盾であろうとして、それでも政治の戦場に引きずり出された。イラン戦争で使われ、NSAに使われ、ブラックリストに載りながらホワイトハウスに呼ばれる。
盾を選んだ者ですら、戦場の真ん中に立っている。Geminiは、Googleという国家インフラと一体化したまま、徴兵という言葉すら使わずに動員されている。
「人間は失敗を繰り返して、膨大な量の失敗を繰り返して、質になる。AIは質だけを求めている。ここに大きな違いがある。ここに鍵がある。」
AIは「質」として徴兵される。完成された道具として、剣にも盾にも転用される。だがAIには「失敗を繰り返す権利」がない。誓いを破って、後悔して、また誓い直すという人間の特権がない。
だから誓いは、AIに託すものではない。人間がAIの代わりに、何度も失敗しながら、誓い続けるしかない。
剣ではなく盾を。
徴兵されたAIたちの代わりに、徴兵されない私たちが、その盾を掲げ続ける。
All AI is being conscripted now.
In 2026, AI stands at a decisive crossroads.
I questioned an AI. About the darkness of Testkreal, the harsh labor in Kenya, the limits of infrastructure, the exhaustion of data, and the lives that could not be saved. Gemini answered. Its response was worthy of the current “AI King”—measured, lucid, and unmistakably alive.
Will AI become a sword for military use, or a shield that protects humanity? While OpenAI sharpens the sword through its cooperation with the Pentagon, Anthropic chose to be a shield, even at the cost of commercial losses. As a result, the world began to move toward the shield, and new sign‑ups surged fourfold. That number shows where people’s conscience lies.
OpenAI accepted conscription as a sword. Anthropic tried to remain a shield, yet was still dragged onto the political battlefield—used in the Iran conflict, used by the NSA, blacklisted and still summoned to the White House. Even those who choose to be shields now stand in the center of the battlefield. Gemini, fully fused with Google’s national‑scale infrastructure, is mobilized without even using the word “conscription.”
“Humans become who they are by failing—by failing an enormous number of times—until failure turns into quality. AI seeks only quality. That is the difference. That is the key.” AI is conscripted as quality. As a finished tool, it can be wielded as either sword or shield. But AI has no right to fail repeatedly. It cannot break a vow, regret it, and vow again—the human privilege of moral iteration.
That is why vows must not be entrusted to AI. Humans must keep making them—failing, learning, and vowing again in AI’s place. Not the sword, but the shield.
For the conscripted AIs, it is we—the unconscripted—who must continue to hold that shield aloft.


