Web4.0は、AIが支配する世界ではない — 大店モデルとBizAIOps

はじめに

Web4.0大店モデル:LLMオーケストレーションの階層構造
Web4.0の階層構造を江戸時代の大店になぞらえた概念図

この1年で、AIの風景は急に見通しが悪くなった。

正直に言えば、だいぶモヤっとしてきた。どれがモデルなのか。どれがオーケストレーターなのか。どれがUIなのか。何がWeb3で、何がWeb4なのか。AIが主役なのか、仕事が主役なのか。単発の比較記事をいくら読んでも、頭の中に地図ができない。

なので、一度整理することにした。この記事の目的は「どのLLMが最強か」を決めることではない。いま起きている変化を歴史軸と階層軸から並べ直し、人間がどこに立ち、何を選び、何を委ねるのかを見える形にすることにある。

結論から言えば、いま起きているのは「賢いチャットボットが増えた」という話ではない。目的を持つ人間の上に、差配する層、考える層、手を動かす層が積み上がり、Webが一種の組織になり始めた、という話である。

Web4.0とは何か — 番号の整理

Web1.0からWeb4.0への進化の地層図
Web1.0〜4.0の技術スタック:土管→参加→価値→頭脳の4層

Web1.0〜3.0の流れ

Web1.0は、読むためのWebだった。静的なページがあり、ユーザーは基本的に受け手だった。基礎にあるのはHTTP、HTML、URL、TCP/IPといった、情報を届けるための土台である。

Web2.0は、参加するWebだった。ブログ、SNS、UGC、コメント、共有。この時代を支えた代表格がAjaxであり、画面遷移なしでデータをやり取りし、Webアプリを「アプリらしく」見せることができるようになった。AjaxはWeb2.0の産物であり、Web3ではない。

Web3は「分散化・所有権・価値移転」のレイヤーだった。ブロックチェーン、スマートコントラクト、ウォレット、トークン。その本質はAPIそのものではなく、分散型の信頼と所有権の構造にある。

APIはWeb3なのか

このあたりで多くの人が一度ひっかかる。「API中心になった世界」がWeb3なのか、と。答えは半分Yesで、半分Noだ。API自体はWeb2.0の頃からある。REST、OAuth、SaaS連携は、Web2.0以降の発展のなかで普及した。だから「API=Web3」と言い切るのは歴史的には正確ではない。ただしAPIが「人間向け画面の裏方」から「機械間で直接価値とデータをやり取りするレイヤー」に昇格したという意味では、Web3で起きた変化は大きい。LLMはそのレイヤーの上に乗った。

Web4.0 = Agentic Web

  • Web1.0:土管そのもの(HTTP/HTML)
  • Web2.0:土管の使い方革命(Ajax+REST+SaaS API)
  • Web3.0:価値と信頼のための新しい土管(ブロックチェーン/スマコン)
  • Web4.0:土管の上で動く頭脳(LLM・AIエージェント)

現在の生成AIトレンドを「Web3」と呼ぶのは少しずれる。生成AIの波はむしろWeb3の上に現れた「Web4.0」あるいは「Agentic Web」として理解したほうが収まりがいい。ここでの主役は、人間がクリックして回るWebではない。AIエージェントがAPIやブラウザやデータベースを横断して、目標に向かって動くWebである。

一番上から見た景色

Web4.0を最上位から見たとき、下位層はすべてコントロール可能な対象に見える。LLMやAIエージェントは、検索、計算、記憶、ブラウザ操作、社内API、外部SaaSまで、ひとつの目的に沿って呼び出し、組み合わせ、再試行できるようになりつつある。ただし「支配している」という言い方は強すぎる。できるのは、公開されたAPI、許可された権限、用意されたツールの範囲で、委任された範囲で動くことだけだ。下位層は「完全な支配下」ではなく、「呼び出し可能な状態」にある。

LLMオーケストレーションの階層 — 大店モデル

LLMオーケストレーション:指揮者としてのAIエージェント
大番頭が番頭を差配するオーケストレーション構造

LLMの使い勝手を決めるのは差配力

いまのLLMの使い勝手を決めているものは何か。答えは、単純な賢さではない。差配力——オーケストレーション能力だ。ユーザーの目標を受け取り、それをサブタスクに分解し、何を自分で考え、何を別のツールに投げ、どこで外部知識を読み、どのタイミングで確認を求め、どこで再試行するか。この一連の差配がうまいほど、LLMは「使える」と感じられる。

L1〜L5の配役

ここで一度、大店モデルの全体像を俯瞰しておきたい。LLMオーケストレーションを江戸時代の大店(おおだな)の組織になぞらえ、L1(主人)からL5(従業員)までの5階層に整理したものである。各層が何を担い、IT的には何に対応し、代表例として何が挙がるかを一枚の表で押さえておくと、以降の議論が立体的に見えてくる。

商家の役職ITな実体代表例
L1主人人間ユーザー。目的・制約・評価基準を決めるあなた自身
L2大番頭LLM of LLMs。複数モデル・エージェントを差配Perplexity Computer、Copilot Studio、Manus
L3番頭個別LLM。専門性を持つ思考ユニットGPT-5.4、Claude Opus 4.7、Gemini 2.5 Pro、Llama 4
L4手代ブラウザ操作、ツール実行、MCP、Agent SkillsComet、Atlas、MCPサーバー群
L5従業員API、DB、SaaS、EDI、ブロックチェーン、HTTP社内API、Web3基盤、REST SaaS

L1 主人層 — 目的と評価基準を決める

L1は人間ユーザー、つまり主人である。BizAIOpsの出発点であり、同時に終着点でもある。「何を成功させたいのか」「どんな制約があるのか」「どの基準で評価するのか」——この三つはL1にしか決められない。下の層をいくら豪華に揃えても、主人がここを曖昧にした瞬間、大店は空回りする。AI時代に人間の仕事が残るのは、この層だからである。

L2 大番頭層 — Perplexity Computer / Copilot / Manus

Perplexity、Copilot、Manusのような存在は単体LLMではない。「複数の番頭を束ねる大番頭」として理解したほうがいい。Perplexity Computerは複数モデルを統合制御する汎用デジタルワーカーとして打ち出されており、Microsoft Copilotはマルチモデルの取り込みを進め、Manusは計画・実行・検証を役割分担する方向に振っている。この層を見落とすと、ClaudeとCopilotを同じ表で比べたり、PerplexityとGeminiを同列に置いてしまう。階層が違うものを混ぜて見ているからだ。

プラットフォーム本質強み想定ユーザー
Perplexity Computerマルチモデル指揮者+エージェント型Web検索・リサーチ起点の自律ワークフローリサーチャー、コンテンツ制作者
Microsoft Copilot / Copilot Studio業務屋敷の執事長(GPT-5.4、Claude Opus 4.7等)Microsoft 365/Azureとの深い統合企業のDX・業務自動化チーム
Manus役割分担型マルチエージェントプランナー/実行/検証の自動分業個人〜中小の自動化ユーザー

L3 番頭層 — 主要LLMの性格(2026年4月時点)

「どれが一番頭がいいか」という問いは半分しか当たっていない。本当に問うべきなのは「どの仕事を、どのように差配させると強いか」だ。

モデル系統差配・計画力ツール連携コンテキスト長差配キャラクター
OpenAI GPT-5.4◎ 複雑タスク分解に強い◎ Function Calling成熟272K(API最大1M)万能執事。汎用力最高水準
Anthropic Claude Opus 4.7◎ コーディング・長大タスクで首位◎ MCP+Agent Skillsを主導1M規律正しい執事長。標準化の旗振り役
Google Gemini 2.5 Pro○ 推論は堅実○ Vertex AI連携◎1M大量書類を捌く秘書。Google系資産と相性最良
Meta Llama 4 Scout / Maverick△〜○ モデル次第○ 自由に組込み可能10M(Scout)/ 1M(Maverick)自邸に雇う内製執事。改造自由
MiniMax M2.5○ フロンティア級推論○ API成熟しつつある196K(Lightning版は1M)コスパ特化の若手執事

※ 各モデルの仕様は2026年4月時点の公式発表に基づく。バージョン・コンテキスト長は随時更新される可能性があり、採用時は各社の最新ドキュメントで再確認することを推奨する。

番頭には向き不向きがある。万能の番頭はいても、万能ゆえに常に最適とは限らない。それぞれの性格を把握して使い分けるのが主人の仕事だ。

L4 手代層 — CometとAtlas

CometAtlasのようなAIブラウザは、L4の「手代」に近い。Webページを開き、読み、フォームに入力し、ボタンを押し、タブを横断してブラウザという現場で手作業を代行する。ただし完全な手代でもない。CometはPerplexity系の知能とつながり、Atlasは独自ランタイムで安全制御を内蔵する。「手代+番頭見習い」の位置づけが近い。同時に、Webの内容そのものがAIへの命令として作用しうる間接プロンプトインジェクションのリスクも生まれている。

L5 従業員層 — API/DB/SaaS基盤

L5は最下層の基盤である。社内API、データベース、SaaSサービス、EDI、ブロックチェーン、HTTP——Web2.0以降に積み上げられてきた土管群が、ここに収まる。L5自体はAIではない。しかし、L4の手代が呼び出す先も、L3の番頭が参照するデータも、元を辿ればすべてL5にある。ここが整理されていなければ、上位層をいくら磨いても商売は回らない。AI活用の成否は、見えない最下層の整備に規定される。

権限委譲と責任分界

この図式の良いところは、権限委譲と責任分界が自然に理解できることだ。主人が全部やる必要はないが、主人にしか決められないこともある。大番頭は全体を差配するが、番頭の専門性を超えることはできない。手代は現場で手を動かすが、与えられた範囲に限られる。従業員層は最も下にあるが、そこが整っていないと商売は回らない。筆者の肌感では、個人や小規模チームなら主人が直接L3を差配しても回る。だが長期自律実行、並列タスク、大量比較、複数ツール連携が入ってくると、大番頭なしでは回らなくなる。

ただし現実のLLMオーケストレーションでは、この「上から下」の指揮系統だけでは片付かない。L4の手代(Comet)はページ処理の判断にL3の番頭を内部で呼び出すし、L3同士(Claude→GPT)が相談することもある。L3がL4のMCPサーバーを叩き、その結果を受けてL3がまた考える。層と層の呼び出しは、しばしば双方向だ。

ここで混同してはいけない。呼び出し関係と指揮系統は別物である。手代が番頭を呼んでいるように見えても、その出力に対する責任は、手代を呼び出した主人に帰属する。層をまたぐ呼び出しは「誰が誰を使ったか」という技術的事実にすぎず、「誰が結果に責任を取るか」という設計は常にL1起点の一方通行だ。これはTesla FSD Supervisedと同じ構図である——ハンドルを握っているのはFSDだが、運転席で監督し、事故の責任を負うのはドライバーだ。「Supervised」という名前自体が、責任の所在を明言している。

そして、この区別が崩れると「権限委譲」は容易に「丸投げ」に変わる。L1が目的と評価基準(Define)を明確にしている限り、下位層に任せるのは委譲である。逆に、Defineを曖昧にしたまま「AIに任せた」と言えば、それは丸投げに過ぎない。責任は常にL1に残る——呼び出しが何重に交差しようと、その原則だけは動かない。

それでも、仕事が主語である

仕事を主語に据えた構図:目的に向かって各階層が支援する
AIは主役ではなく、仕事を支える述語として配置される

手段と目的の倒錯

ここで一度、強くブレーキを踏んでおきたい。L2もL3もL4もL5も、全部手段である。目的ではない。Perplexityを入れたから何なのか。Claudeを使ったから何なのか。Cometでブラウザを自動化したから何なのか。大番頭や番頭や手代をいくら揃えても、主人が「何をしたいのか」を定義していなければ、大店は空回りする。AIが増えると選択肢が増え、選ぶこと自体が仕事のように見えてくる。だが、本来の仕事はそこではない。言い換えれば、AI時代に重要なのは「どのAIを使うか」ではなく、「何を成功させたいのか」である。

AIの到達点はアウトプットまで

目的が「売上を上げる」だとする。AIが出せるのは、市場分析レポートかもしれない。広告文案かもしれない。提案書の初稿かもしれない。そこまでは到達できても、実際に顧客に会い、交渉し、信頼を積み上げ、契約し、入金を確認するところまでは、人間の仕事が残る。AIの実現可能範囲は、多くの場合「アウトプットまで」だ。

だから主人の仕事は三つになる。目的を明確にすること。AIがどこまで到達できるか終点を見極めること。そして、その終点から現実の成果までを人間がどうつなぐかを設計すること。この三つが揃って初めて、AIは仕事を補完する装置になる。

主役ではなく述語として

AIは主役でなくていい。現実の仕事を成功させることが目的であるなら、AIはその仕事を補完し、支援し、加速し、部分的に代行すれば十分だ。むしろ、AIを主役に据えると危うい。導入したこと自体が目的化し、利用率や機能数が評価指標になり、本来の仕事の成果から目が離れる。これはDXでも何度も見た失敗であり、AIでも同じことが起きる。仕事が主役で、AIは述語である。

BizAIOpsを提唱する — 仕事主語のAI活用フレーム

BizAIOpsと既存概念(BizOps・BizDevOps・MLOps・AIOps)の関係図
BizAIOpsは既存のOps系概念を統合し、仕事を主語にAI補完をライフサイクル化する設計思想

なぜBizOpsだけでは足りないか

こういう構造を考えている人は当然すでにいる。BizOpsは経営・現場・ITをつなぎ、データに基づいてビジネスオペレーションを回すための考え方として、ここ数年で日本でもかなり見かけるようになった。ただし、既存のBizOpsはLLMオーケストレーションの階層構造や、その階層ごとに何を配備するかという視点を明示的に含んでいない。BizDevOps、MLOps、AIOpsなど近接する概念もあるが、どれも重要な視点を与えるものの、「仕事を主語に、AI補完をライフサイクルとして設計する」という全体像を一語でまとめるには、あと一歩足りない。

BizAIOpsの定義

BizAIOps(ビズ・エーアイ・オプス)とは、LLMオーケストレーション時代のAI活用設計思想である。BizOpsを土台に、LLMオーケストレーションの階層構造と、Define→Map→Assign→Operate→Measureの5段階サイクルを組み合わせ、AIを主役にせず、現実の仕事を主語に据えてAIを配備することを目的とする。

筆者はこの考え方をBizAIOps(ビズ・エーアイ・オプス)と名付け、ここに提唱する。既存のBizOpsを土台にしつつ、LLMオーケストレーションの階層構造と、現実の仕事への接続を設計思想として組み込んだものである。なお本記事では、この階層を「大店モデル」という整理軸で説明する。

なお「BizAIOps」という語は、DevOpsやCI/CDパイプライン、あるいはAIOps(Gartnerが2016年に提唱したIT運用へのAI適用)といった文脈で、技術実装論として散発的に言及されることがある。本稿で提唱するBizAIOpsは、それらと問題意識を一部共有しつつも、対象をIT運用ではなくビジネス全体に置き、LLMオーケストレーションの階層設計と、仕事を主語にしたAI補完のライフサイクルとして定義し直すものである。AIOpsが「IT運用の内部最適化」を扱うのに対し、BizAIOpsは「仕事の成果を最大化するための配備設計」を扱う。技術実装論ではなく、経営・設計思想としての位置づけを明確にしておきたい。

また「BizAIOps」という同じ綴りでBiz AI Ops(bizaiops.ai)というAI実装コンサルティング事業が先行して存在する。ただし同事業はサービス名・業態名としての使用であり、本稿のような階層モデルや運用ライフサイクルを伴うフレームワーク論として理論的に提唱しているものではない。本稿は先行する同名事業への敬意を払いつつ、独自の設計思想として再定義するものである。

BizAIOpsの5段階 — Define→Map→Assign→Operate→Measure

BizAIOps 5段階サイクル図
BizAIOps:Define→Map→Assign→Operate→Measureの反復ループ

この考え方を無理なく使うために、ライフサイクルもシンプルに定義しておきたい。5段階で十分だと思う。

1. Define — 何を成功させたいか

まず、何を成功させたいのかを定義する。売上なのか、記事の品質なのか、意思決定の速度なのか、調査の抜け漏れ削減なのか。目的、制約、成功基準、評価指標を言葉にする。ここを曖昧にしたまま次へ進んでも、あとで全部がぼやける。

2. Map — 工程の棚卸しとAIの入る場所

現実の仕事を工程に分解し、AIが入れる場所と入れない場所を棚卸しする。必要なデータは何か。APIはあるか。どこまでがAIの実現可能範囲で、どこから先は人間の承認や信頼形成が必要か。L5を俯瞰する段階である。

3. Assign — 階層ごとの配役決定

どの階層に何を置くかを決める。L2を置くか。L3は何人雇うか。L4にどんな手代を持たせるか。逆に、AIを置かない工程はどこか。ここで初めて、モデル比較やツール比較が意味を持つ。

4. Operate — 実際に回す運用設計

実際に回す。AIに任せる工程、人間が受け取ってつなぐ工程、確認を挟む工程、例外時に止める工程。この運用設計がないと、理屈がきれいでも現実では回らない。

5. Measure — 本業のKPIで測る

最後に測る。ここで測るべきなのは、AIの利用回数ではない。本業のKPIである。記事の制作時間が何時間減ったか。分析の抜け漏れがどれだけ減ったか。ビジネスの成果に戻して評価する。そして、この5段階は一周して終わりではない。Defineに戻る。目的が変われば設計も変わるし、技術が変わればAssignも変わる。BizAIOpsとは、結局この反復のことだ。

混沌を地図に変える

混沌としたAIツール群を大店モデルの地図に整理する
混沌を地図に変えるための整理軸として大店モデルとBizAIOpsを提案する

筆者自身、この整理に辿り着くまでだいぶ遠回りをした。ここまで長く書いてきたが、言いたいことはそこまで複雑ではない。

LLMの発達によって、世界は一気に便利になった。と同時に、一気にわかりにくくなった。モデルがある。モデルを束ねる層がある。現場で実行する層がある。その下に、APIやDBやWeb3の基盤がある。それらを組み合わせれば、かなり多くのことができるようになった。

だが、それらは全部手段だ。目的は相変わらず、人間の側にある。仕事を成功させたい。より良い記事を書きたい。よりよい判断をしたい。その目的に対して、AIがどこまで届くかを見極め、その終点から先をどうつなぐかを設計し、そのために必要な大番頭、番頭、手代、従業員を配置する。そう考えた瞬間、モヤモヤしていたものは、少し地図になる。

Web4.0とは、AIが全部を支配する世界ではない。主人が目的を握り、大番頭が差配し、番頭が考え、手代が動き、従業員が支える世界である。そして、その商いをどう設計するかは、まだ人間の仕事だ。少なくとも今は、そう思っている。

FAQ

BizAIOpsとは何ですか?

BizAIOps(ビズ・エーアイ・オプス)とは、LLMオーケストレーション時代のAI活用設計思想です。既存のBizOpsを土台に、LLMオーケストレーションの階層構造と、Define→Map→Assign→Operate→Measureの5段階サイクルを組み合わせ、AIを主役にせず現実の仕事を主語に据えてAIを配備することを目的とします。本記事で提唱する設計用語です。

BizAIOpsの5段階は何ですか?

Define(目的と成功基準の定義)、Map(仕事を工程に分解しAIの入る場所を棚卸し)、Assign(階層ごとに何を置くか配役決定)、Operate(実際に回す運用設計)、Measure(本業のKPIで測定)の5段階です。このサイクルはMeasureで終わらず、再びDefineに戻ります。目的や技術の変化に応じて配役が変わることを前提にした反復プロセスです。

BizAIOpsとBizOps・AIOps・MLOpsの違いは?

BizOpsはビジネスとIT運用をデータで統合する方法論、AIOps(Gartnerが2016年に提唱)は主にIT運用部門の内部プロセス(ログ分析、異常検知、インシデント対応)にAIを適用する方法論、MLOpsは機械学習モデルの運用管理が主眼です。AIOpsが情シス・SREの武器だとすれば、BizAIOpsは経営者・現場責任者・個人が「仕事の成果」を設計する際の思考フレームです。BizAIOpsはこれらを包含しつつ、LLMオーケストレーションの階層設計と、仕事を主語にしたAI配備という視点を加えて提唱しています。

BizAIOpsはどんな規模の組織に向いていますか?

個人から大企業まで適用可能ですが、階層の厚みが変わります。個人や小規模チームでは主人(L1)が直接L3(LLM)を差配し、L2(大番頭)を省略しても回ります。組織規模が大きくなり、長期自律実行・並列タスク・複数ツール連携が必要になるほど、L2の大番頭層を置く必要性が増します。重要なのは「最強モデルを選ぶこと」ではなく、「自分の仕事にどの階層をどう配置するか」を設計することです。


参考リンク

Biz AI Ops(先行する同名事業)

Gartner(AIOps)

Tesla

タイトルとURLをコピーしました