AI Agent
2024年以降
「LLM+外部ツールの連携」という構図が大きな特徴
2025-03
2つの大きな特徴
テキスト生成器ではなく思考エンジンとして用いる
ツール実行が可能
トレンド
複数の異なる役割のエージェントを協調させる
通常のシステムとAIエージェントを組み合わせることで自動化と品質のバランスをとる
2025-02
2025-01
古くは1995からある
The classic book by Stuart Russell and Peter Norvig, Artificial Intelligence: A Modern Approach (Prentice Hall, 1995), defines the field of AI research as “the study and design of rational agents.”
エージェントとは環境を認識してその環境上で行動するもの
An agent is anything that can perceive its environment and act upon that environment. Artificial Intelligence: A Modern Approach (1995) defines an agent as anything that can be viewed as perceiving its environment through sensors and acting upon that environment through actuators.
This means that an agent is characterized by the environment it operates in and the set of actions it can perform.
The environment an agent can operate in is defined by its use case. If an agent is developed to play a game (e.g., Minecraft, Go, Dota), that game is its environment. If you want an agent to scrape documents from the internet, the environment is the internet. A self-driving car agent’s environment is the road system and its adjacent areas.
「Agent」とは何か
記事では、LLM(大規模言語モデル)等を活用してタスクを実行し、自律的に振る舞うシステムを「Agent」と定義。
具体的には、ユーザーの命令を理解し、目的や文脈に応じてプランを立て、必要な情報を取得し、実際の行動(計算・データ処理・ツールの呼び出しなど)を行う流れを指す。
Agentの仕組みと構成要素
大まかには「思考(計画)」「行動(実行)」「メモリ(過去のやりとりや結果の保持)」の3つが重要。
LLMの言語理解力をベースにして、複数の外部ツールやAPIを連携しながらタスクを進める。
Agentフレームワーク(例:LangChainなど)は、この一連のプロセスを円滑にするための実装を提供する。
活用・応用シナリオ
文章生成のみならず、データ分析・コード自動生成・スクリプト実行・ウェブ検索など幅広いタスクを自動化できる。
チャットボットを超えて、ユーザーの代わりに反復的な作業をこなす「自動タスク実行エンジン」のような役割を担う可能性がある。
課題・問題点
誤情報(Hallucination): LLMが根拠の薄い回答を生成してしまうリスクがある。
ツール連携: 外部APIやツールとのやりとりが複雑になるとエラーや不具合が増える。
安全性・信頼性: Agentが自律的に動くため、誤った判断やセキュリティリスクへの対処が必要。
実用化へのハードル: システムを安定稼働させるには多くの設計・検証コストが必要。
今後の展望
技術的には急速に進化しており、Agent実装のためのオープンソースやサービスが増えている。
商用・研究問わず、Agentの自律性や連続的な学習を高める動きが活発化。
将来的には、より人間の判断や能力を補佐する形で、幅広い場面への導入が期待される。
あえてここは「今年はエージェントではなくワークフローの時代」といわせていただきます。
しかし私がいろいろ試行錯誤した結果、「お客様向けに完全自律のエージェントを提供」するのは現状まだ難度が高いと感じました。とくにハルシネーションリスクや誤った操作の暴走などが起きやすいからです。