毎朝、メールの確認
問い合わせの初期対応
在庫のデータチェック

それらは、全て「SOP(標準作業手順書)」に基づいた反復作業です。

でも、もしこれらを人間の手を借りずに、AIエージェントが自律的に遂行できたら──
現場はどう変わるでしょうか?

この問いに本気で向き合い、答えを提示しようとしているのが、最新のLLM(大規模言語モデル)エージェントシステムなのです。


目次

SOPとは何か?なぜそれが自動化できるのか?

「SOP」とは、作業のばらつきを防ぎ、品質と効率を保つために設計された手順書。

具体的には、

  • 顧客対応の会話フロー

  • 情報収集後のシステム操作

  • 異常検知時のエスカレーションルール

など、細部にわたり記述されています。

これまでは人間がこれを読み、順を追って実行してきました。
しかし、最近のLLMはSOPの読解・解釈・実行が可能なレベルに達し、そのまま業務エージェントとして機能する段階に入っています。


LLMエージェントがSOPをどう処理するのか?

以下のような構成で、LLMエージェントは実行されます:


① 作業の理解:

SOPを自然言語として読み取り、意図と目的を把握。

② 状況判断:

ユーザーや顧客との対話を通じて必要な情報を取得。
(例:「商品の納期を知りたい」という問い合わせに対して、注文番号を聞く)

③ 外部システムの操作:

取得した情報を元に、社内のAPIやデータベースにアクセスし、情報を抽出。

④ フィードバックと応答:

得られた情報を基に、次の判断・応答・分岐を行い、再度対話または報告。

⑤ 例外処理:

誤情報や予期しない状況に直面した際には、元の手順に戻る、あるいは別ルートを選択。


このように、対話(コミュニケーション型)と実行(情報確認型)を往復しながら動くのが、LLMエージェントの特徴です。

作業情報を一元化するとは、どういうことか?

業務をAIに任せると聞いて、最も多く寄せられる質問があります。

それは、
「LLMは、本当に次にやるべき作業を正しく判断できるのか?」ということ。

答えはイエス。
──ただし、**“前提情報が整理されていれば”**の話です。

多くの企業で使われるSOP(標準作業手順書)は、業務ごとに別々に記述されており、作業に必要な情報があちこちに散在しています。
そのため、AIがSOPを読むたびに必要情報を探し直すのは非効率で、実用的ではありません。

だからこそ必要になるのが、
**「すべての作業情報を一元化したデータベース」**です。


Global Action Repository(GAR)という中核システム

研究者たちは、この作業情報の中枢データベースを**Global Action Repository(GAR)**と名付けました。

GARは、企業内で行われるあらゆる業務アクションの設計図ともいえる存在です。

ここに格納されるのは、次のような情報:

  • 作業名(例:商品IDの確認)

  • 作業タイプ(API呼び出し・ユーザー質問・通知など)

  • 対話のテンプレート(何をどう聞くか)

  • 必要なパラメータ(API用データ、ユーザー入力の形式など)

このGARを参照することで、LLMエージェントは「次に何をするべきか?」を正確に導き出します。

たとえば──
👩‍💼 顧客から問い合わせが入ったとします。
LLMはGARを参照し、「顧客に商品IDを聞く必要がある」と判断。
GAR内のテンプレートに沿って質問を投げかけます。

さらに、取得したIDをもとにGARが定義したAPIエンドポイントを呼び出し、商品状態を確認。
その結果を、適切な自然言語で返す──
こうした一連の流れがGARという共通設計図により、自動で遂行されるのです。


次の作業をどう判断するのか?

|State Decision LLMの役割とは

業務自動化の成否を握るもうひとつの鍵、それが判断のロジックです。

人間の現場感覚では、
「この作業が終わったら、次にこれをやる」
「今の状態なら、ユーザーに再確認が必要」
など、自然に判断しています。

この**“現場感覚”をAIに与える役割**を担うのが、
State Decision LLMです。

このサブエージェントは、以下の2つの情報をもとに次の一手を導き出します。

  • SOPの自然言語記述(業務フローの全体像)

  • 実行メモリ(これまでのやりとり・結果)

たとえば、

  • ユーザーが入力ミスした

  • APIがエラーを返した

  • 過去に同じパターンでリカバリー成功している

といった履歴を踏まえ、「次はエラー対応の質問に戻る」と判断します。


自然文で記述されるSOPこそがAIに理解される

この仕組みを支える土台として、研究者らが注目したのが
**「SOPの自然言語化」**です。

従来のSOPは専門用語や形式的な記法が多く、人間にも読みづらいものでした。
しかし、LLMに理解させるには、人間が普段話すような簡潔な文章が最適なのです。

以下はその一例:


📝 リスティングがブロックされた際のSOP(自然文形式)

  1. ユーザーのステータスを確認する。

  2. 「オンボーディング中」の場合:「登録が完了していません」と伝え、終了。

  3. 「アクティブ」の場合:商品IDを尋ね、システムで商品状態を確認する。

  4. 商品がアクティブなら「問題なし」と伝え終了。

  5. ブロックされているなら理由を確認し、対応の可否を判断する。


このように、条件分岐もシンプルな自然文で書くことで、LLMは驚くほど正確にフローを理解し、実行できます。


実行メモリ(Execution Memory)が業務の文脈をつなぐ

しかし、もう一つ重要なのが、業務の“履歴”を記録する機能です。
それが、**Execution Memory(実行メモリ)**です。

ここには、以下の情報が蓄積されます:

  • 実行した作業の内容(質問、API呼び出しなど)

  • 得られた結果(回答、データ)

  • 成否の判断(成功/失敗)

この情報を参照することで、LLMは次の判断を文脈に応じて最適化できます。

たとえば、
前回の作業でユーザーから誤った情報が得られた場合──
✔️「もう一度聞く」
✔️「入力フォーマットを案内する」
✔️「別の情報を求める」

といった柔軟な判断ができるのです。

この実行メモリは、ただのログではなく、意思決定の土台となるインテリジェンスです。

LLMが業務を進めるための3つの頭脳

|判断・対話・実行を司るサブエージェントの役割とは?


1. 次の行動を決める:State Decision LLM🧭

業務を遂行するAIにとって、「いま何をすべきか?」を判断する能力は欠かせません。
その意思決定を担うのが、State Decision LLMです。

このサブエージェントの役割は、
SOPで定義されたワークフローと、過去の作業履歴(実行メモリ)をもとに、
次に実行すべきアクションを的確に導き出すこと。

たとえば、以下のような条件分岐にも柔軟に対応します。


🔍 判断のロジック例

  • 実行メモリが空なら ⇒ ワークフローの最初のアクションを選ぶ

  • 前回の作業が成功なら ⇒ 次のステップへ

  • 前回の作業が失敗かつユーザーが後戻りを希望しているなら ⇒ 該当する過去のステップを再実行

  • 質問が来た場合 ⇒ 「外部知識の取得」アクションを挿入

  • 明確な判断基準がない場合 ⇒ 実行メモリ全体を見渡して、再試行すべきアクションを見極める


これにより、LLMは状況に応じた柔軟な意思決定エンジンとして振る舞い、
SOPが分岐や例外処理を含んでいても、迷わず次の行動へとつなげます。


2. ユーザーと会話する:User Interaction LLM🗣️

次に登場するのが、ユーザーとの「会話の質」を決定づけるサブエージェント、User Interaction LLMです。

このエージェントは、単に「質問する」「答える」だけにとどまらず、以下のような多層的な会話処理を行います。


🧠 User Interaction LLMの役割

  • ユーザーの入力が正しい形式かどうかを判定(例:商品IDが8桁の英数字であるか?)

  • 回答から必要な情報だけを抽出し、スロット形式で整理(例:{商品ID: 12345XYZ})

  • 入力ミスや曖昧な表現があれば、自然に修正・補完して理解

  • 返信のニュアンスも自動生成(感謝、エラー案内、確認メッセージなど)


このように、単なる応答生成にとどまらず、対話の正確性と品位を維持することができます。
ユーザーがストレスなく情報を提供できるのも、このエージェントの存在があってこそ。


3. 実際に作業を動かす:Action Execution LLM⚙️

最後に、意思決定されたアクションを具体的な作業に落とし込む役割を持つのが、Action Execution LLMです。

このエージェントは、抽象的な「指示文」を、現実の業務で実行可能な実務レベルのデータ・文言に変換していきます。


🔧 Action Execution LLMが対応するアクションタイプ例

アクションタイプ 実行内容
ask_user_input ユーザーへの丁寧な質問文を生成(例:「商品IDをご入力ください」)
api_call APIに必要なパラメータを抽出・整理し、構造化(例:{product_id: 12345XYZ})
external_knowledge ユーザーの質問を検索クエリに変換(例:「商品ID ブロック 理由」)
message_to_user メッセージ生成(例:エラー再試行の案内や作業完了の通知など)

このエージェントの働きにより、システムは「自然文での指示」をGARと結びついた作業実行可能な構造体に変換します。

つまり、
📌「ユーザーに商品IDを聞け」という抽象的な命令が、
🧩「質問文」「必要な形式」「エラーメッセージ」「受信スロット情報」など、すべての要素に分解され、即座に動作に変わるわけです。


この三位一体構成が業務の“完全自動化”を可能にする

ここまで見てきたように、SOPベースの業務をLLMエージェントで自動化するためには、単一のモデルでは不十分です。

「次を決める」判断力(State Decision LLM)
「人と話す」理解力(User Interaction LLM)
「作業に落とす」実行力(Action Execution LLM)

この三つの脳が連携してはじめて、複雑な業務が自律的に進行できるようになるのです。

それぞれの役割を独立させることで、柔軟性・メンテナンス性・精度が飛躍的に向上し、
従来のRPAや手作業では困難だった状況に応じた分岐や回復処理が可能になります。

① 最初の作業を決定する(State Decision LLM)

まず、実行メモリ(Execution Memory)が空であることを確認。
これは「まだ何もしていない」状態。

このときは、SOPの冒頭で定義されている最初のアクションを選び出し、
State Decision LLMが次のアクションとして提案します。


② GARから作業を検索(Action Retrieval model)

次に、提案された作業がどんな実務内容なのかを明らかにするため、
**Global Action Repository(GAR)**を検索。

作業の説明文をエンベディング化し、GAR内の作業候補と意味的に最も近いものを選び出します。

これにより、曖昧な指示文が具体的な操作手順に変換されます。


③ 作業の準備を整える(Action Execution LLM)

選ばれた作業を実行可能な状態に整えるのが、Action Execution LLMの役割。

  • ユーザーに質問を投げかける場合 → 丁寧な質問文を生成

  • APIを呼び出す場合 → パラメータを抽出・整形

  • ナレッジベースを検索する場合 → 適切なクエリを生成

  • 結果を伝える場合 → 明確で安心感のある返信を生成

こうして、作業の準備が完了します。


④ 作業を実施し、結果を記録(User Interaction LLM + 実行メモリ)

質問文が生成されたら、それをユーザーに提示。
ユーザーの回答を受け取り、User Interaction LLMが以下の処理を行います。

  • 入力内容が正しいかを検証

  • 必要な情報(商品ID、電話番号など)を抽出

  • 適切なメッセージを返答(確認・エラー通知など)

APIを使用する作業の場合は、用意したパラメータで実際に呼び出しを行い、
レスポンスを確認して「成功か失敗か」を判断します。

そしてすべてのプロセスと結果を、**実行メモリ(Execution Memory)**に記録。


⑤ 次の作業を判断する(State Decision LLM)

作業が完了したら再び、State Decision LLMが登場。
今度は、実行メモリを参照しながら、SOPに従って次のアクションを選びます。

  • 作業が成功した → 次のアクションに進む

  • 作業が失敗した → その原因と対応に応じて次の行動を変更

こうして、業務は“文脈に沿って”進行していきます。


⑥ エラー時のリカバリー対応

作業中には、様々なエラーも起こり得ます。

  • APIがタイムアウト

  • ユーザーが誤った入力を複数回

  • 情報が不完全

このとき、システムは自動的にリトライ回数をカウントし、
上限を超えると作業を停止。

また、ユーザーが「前に戻りたい」「情報がわからない」といった意図を示した場合には、
State Decision LLMがセマンティック検索で過去のアクションを見直し
最も適切な位置から再開します。


⑦ ユーザーからの質問対応(外部知識参照)

途中でユーザーが質問を投げかけた場合──

「商品IDってどこで確認できますか?」など、手順外の疑問に対しても、
一時的に作業を中断し、外部知識ベースへクエリを発行

回答が得られたら、自然な文章でユーザーに返答し、
その後、もとの作業へ戻って業務を継続します。


実証実験:この仕組みは本当に使えるのか?

研究チームは、このエージェントシステムの有効性を検証するため、
2段階の評価実験を実施しました。


🔬 第一段階:シミュレーション評価

リアルな業務環境を模したテストシナリオで以下を検証:

  • 正しい回答、誤回答、無関係な内容

  • 質問をはさむタイミング

  • APIの不安定なレスポンス

  • 手順の例外処理

このシミュレーションでは、エージェントがSOPの理解・判断・行動を正確に行えることが確認されました。
特に、エラー時の柔軟な対応能力が高く評価されました。


🧪 第二段階:実ユーザーとの検証

実際のユーザーとの対話を通じたテストでも、
想定通りの作業がスムーズに行われ、
現実の運用にも十分適応できることが明らかになりました。


各サブエージェントの評価ポイント

  • State Decision LLM:状況ごとの分岐判断の正確性は高く、特に履歴を参照した場合の判断精度が良好

  • Action Execution LLM:質問文やAPI用データの生成精度は高水準。ナレッジ検索の最適化に若干の改善余地

  • User Interaction LLM:誤回答の検知能力と、正確な情報抽出の性能が安定していた


まとめ|SOPの未来はAIとともにある

本記事では、標準作業手順書(SOP)をベースに、
複数のLLMエージェントが連携して業務を自動化する仕組みを解説しました。


✅ SOPの文書は自然言語で記述され、LLMが読み取りやすい形に整備
✅ 共通作業DB(GAR)と、判断・対話・実行の3エージェントによる分業設計
✅ 作業結果は実行メモリに記録され、過去の履歴を活用して業務を最適化
✅ 実証実験では、実務環境での有効性と拡張可能性が確認された


今後は、カスタマーサポートだけでなく、医療、物流、製造、教育などあらゆる分野で応用可能と見られています。

最新情報をチェックしよう!