

| この記事でわかること |
|
| この記事の対象者 |
|
| 期待できる効果 |
|
企業の経営企画部、DX推進部、そして情報システム部門の皆様へ。
生成AIの活用は進んでいるものの、多くの現場では依然として「人間がプロンプト(指示)を与えなければ何もできない」という、指示待ちのAIが主流です。特に、複数のシステムを横断し、状況に応じて判断を伴う複雑で高度な業務の自動化は、RPA(ロボティック・プロセス・オートメーション)でもAIでも難しい、DXの最後のフロンティアとして残されていました。
「AIに『フライトを予約して、カレンダーに登録し、経費精算までやって』と抽象的に指示したい…」 「サプライチェーンの在庫不足を検知したら、AIが自律的に発注をかけるまでを完結してほしい…」
この課題を解決するため、富士通は2024年10月、「Fujitsu Kozuchi AI Agent(コヅチ AI エージェント)」の提供開始を発表しました。これは、LLM(大規模言語モデル)を搭載し、人とAIが対話しながら協調し、高度な業務プロセス全体を自律的に推進することを目指した、次世代のAIエージェントです。
本稿では、富士通のKozuchi AI Agentがもたらす「自律的業務推進」の仕組み、人とAIの協調という新しい働き方、そしてAIの暴走を防ぐガードレール機能といった、エンタープライズグレードのAIエージェントに不可欠な要素を徹底解説します。
AIエージェントが「自律的業務」を推進する仕組み

AIエージェントの核となる「計画立案→実行→結果評価」のサイクル
従来のRPAやチャットボットが「決められた手順」や「単一の質問」にしか対応できなかったのに対し、Kozuchi AI Agentは、LLMの推論能力を最大限に活用し、以下のサイクルを自律的に実行します。
- 計画立案: ユーザーからの抽象的かつ複雑な指示(例:新製品のキャンペーン計画を立てて)に対し、AIが「市場調査」「予算配分」「広告素材作成」といった、必要なタスクを複数のステップに分解し、システム操作の計画を立てます。
- 実行と協調: AIは、立てた計画に基づき、CRM、SFA、財務システムといった複数の異なるシステムを、APIやRPA技術を通じて自律的に操作・連携させます。このとき、AIがシステム側で生成した中間結果(例:市場調査のデータ)をLLMが文脈として理解し、次のステップへとつなげます。
- 結果評価と修正: 実行した結果が人の意図通りか、またはエラーが発生していないかをAIが自ら評価し、問題があれば計画を修正して再実行します。
この「自律的な計画と実行」のサイクルこそが、Kozuchi AI Agentを単なるツールではなく「自律的な業務推進者」たらしめている核となる技術です。
人とAIの協調:対話によるプロセスの推進
Kozuchi AI Agentの最大の特徴は、この自律的なプロセスを「人とAIの対話」を通じて行う点です。
- 対話による指示と修正: AIが計画を立案する際や、実行中に予期せぬエラーに直面した際、AIは人に対して質問を投げかけたり、次のアクションを提案したりします。人はこれに対し、自然言語で「承諾」「修正指示」「中止」といった指示を返すことで、AIの業務プロセスを人間が柔軟に制御できます。
- 人間の洞察の注入: 最終的な倫理的な判断や、創造的な意思決定など、AIには難しい部分に人間の洞察が注入されることで、AIの効率性と人間の正確性・責任が両立します。
これは、従来のAIが「人間を代替する」という思想から、「人間とAIが協調し、お互いの強みを活かす」という、人間中心のAI(Human-Centric AI)の思想に基づいています。
Fujitsu Kozuchi AI Agentの具体的な活用事例
Kozuchi AI Agentの自律性は、特に複雑な判断とシステム連携が求められる業務領域で、劇的な効率化をもたらします。
事例1:サプライチェーンの最適化(SCM)
サプライチェーン管理(SCM)は、在庫、需要予測、物流、発注といった複数のシステムと情報が絡み合う、最も複雑な業務の一つです。
- AIの実行タスク:
- 在庫システムで在庫の閾値割れを検知。
- LLMが「在庫不足のレベル」と「季節変動」を考慮し、最適な発注計画を立案。
- RPAを介し、サプライヤーの管理システムにアクセスして自動で発注を確定。
- 在庫管理担当者に結果を通知し、人が最終承認。
- 効果: 手動による発注作業が不要となり、欠品リスクを最小限に抑えつつ、在庫最適化を実現します。
事例2:人事・採用業務の高度化
人事・採用業務における膨大なドキュメントの処理や選考プロセスの最適化にAIが貢献します。
- AIの実行タスク:
- 応募者データを読み取り、評価基準に基づいた一次スクリーニングとスコアリングを実行。
- AIが「この候補者に必要な面接質問」を、職務記述書(JD)を基に自動生成。
- 面接結果をシステムに入力すると、AIが評価コメントのドラフトを生成し、評価者の負担を軽減。
- 効果: 採用活動の効率が上がり、評価者によるバイアス(偏見)を排除した客観的で公平な選考プロセスを支援します。
事例3:ソフトウェア開発の自律化
AIエージェントは、ソフトウェア開発の設計、コーディング、テストといったプロセス全体を支援します。
- AIの実行タスク: 開発者が「この機能を追加したい」と抽象的に指示すると、AIが既存のコードベースを理解し、必要なコード修正箇所を特定。テストコードまで自動で生成し、人間によるレビューを待つ。
- 効果: 開発サイクルのスピードが上がり、開発者の生産性と創造的なコーディングへの集中を促します。
AIエージェント時代に不可欠な「AIガバナンス」とリスク対策
AIエージェントの「自律性」は大きなメリットですが、その裏側には「人の意図しない暴走」や「セキュリティリスク」という課題も伴います。富士通は、これらのリスクに対処するための技術をKozuchiに組み込んでいます。
AIの暴走を防ぐ「ガードレール機能」の搭載
Kozuchi AI Agentの最も重要な技術的特徴の一つは、「ガードレール機能」によるAIの動作の制御です。
- 機能: AIの「自律的な実行」を許容する一方で、「機密情報へのアクセス」「資金移動など不可逆的な操作」「倫理的に不適切な行動」といった特定の動作をシステムレベルで禁止または制限するルールを設定します。
- 目的: AIが、人の意図しない、あるいは予期せぬ行動を取ることを防ぎ、セキュリティとコンプライアンスを担保します。
DX推進部が取るべき「AI倫理」の戦略
AIエージェントの導入を成功させるには、技術的な対策に加え、組織的なAIガバナンスが不可欠です。
- 人間の最終責任: AIがどんなに自律的に動いても、最終的な意思決定と責任は必ず人間が持つという倫理的なポリシーを策定する。
- 透明性の確保: AIエージェントがどのような判断プロセスを経てその結果を出したのかを、人間が追跡・監査できるための透明性(Transparency)を確保する。
- AI教育: 社員に対して、AIの限界と能力を理解させ、「AIの提案を鵜呑みにしない」というAIリテラシー教育を徹底する。
結論:AIエージェントは「人間中心のDX」を加速させる
富士通のKozuchi AI Agentが切り拓くのは、「人間がAIの雑用係になる」のではなく、「AIが人間の秘書となり、高度な業務を自律的に推進する」という、人間中心のDXの未来です。
AIエージェントが情報収集、システム連携、タスクの実行といった「時間のかかる作業」を担うことで、私たちは「顧客との信頼関係構築」や「創造的な戦略立案」といった、人間にしかできない、最も価値のある業務に集中できます。
AIガバナンスとセキュリティを土台とした上で、この自律的なAIの力を最大限に活用し、貴社のDXを新たなステージへと加速させていきましょう。
Q&A: Fujitsu Kozuchi AI AgentとAIエージェントに関するよくある質問
Q1. AIエージェントとRPAの決定的な違いは何ですか?
RPAは、人間が「手順を正確に定義した定型的な操作」を自動で実行するのに対し、AIエージェントは、「抽象的な目的」を理解し、自ら手順を計画、システムを操作、結果を評価、修正まで行う「自律性」を持つ点が異なります。RPAが「ロボット」なら、AIエージェントは「自分で考えて動く秘書」です。
Q2. AIエージェントが暴走した場合の対策はありますか?
富士通のKozuchi AI Agentは、AIの暴走を防ぐために「ガードレール機能」を搭載しています。これは、「機密情報へのアクセス」や「資金移動」といった特定の不可逆的な動作を、AIが自律的に判断してもシステムレベルで実行させないよう制御するセキュリティ機能です。これにより、AIの自律性と安全性を両立させています。
Q3. AIエージェントの導入で、情シス部門が最も注力すべき点はどこですか?
情シス部門が最も注力すべきは、セキュリティとデータ連携の基盤整備です。
- ガードレール機能によるAIガバナンスの確保。
- AIエージェントが複数のシステムを操作できるよう、APIやRPAといったシステム連携の環境をセキュアに整備し、AIが業務をスムーズに実行できる「足回り」を構築することです。








