AIツールのニュースを見ていると、「また新しい機能が出た」「どのAIが一番賢いのか」といった話題に目が行きがちです。
性能の高いAIを選ぶことは大切ですが、仕事で実際に使い続けるうえでは、それだけでは足りなくなってきています。
今回取り上げるのは、Anthropicが2026年5月のCode with Claudeカンファレンスで発表した「dreaming」という機能です。名前だけ聞くと少しSFっぽく感じますが、中身はかなり実務的な発想です。
ざっくり言えば、AIエージェントが過去の作業を振り返り、次のセッションに活かす仕組み。
このニュースを「新機能がすごい」で終わらせず、私たちが仕事の中でAIをどう育てていくかという視点で読み解いてみます。
AIエージェントは「ある程度まとめて任せられるAI」
まず、AIエージェントという言葉を簡単に整理しておきます。
ここで言うAIエージェントは、作業の流れをある程度まとめて任せられるAIのことです。
質問に一問一答で返すだけではなく、情報の整理から手順の検討、実行、結果の確認、必要に応じたやり直しまで、自分である程度進めてくれる存在と考えてもらえれば近いです。
どこまで任せられるかはツールや設定によって変わります。とはいえ、これまでの「一問一答のAI」よりも、実務の流れに沿った形で組み込みやすいのが大きな違いなんですよね。
「dreaming」はAIが過去のミスから学ぶ仕組み
「dreaming」という名前は、人間が眠っているあいだに脳が記憶を整理するイメージから取られています。少し詩的に聞こえますが、実務目線で見るとかなり身近な発想です。
人間の仕事でも、終わったあとに振り返りをしますよね。どこで時間がかかったのか、なぜミスが起きたのか、次は先に確認したほうがよいことは何か。こうした振り返りを通じて、次の仕事の進め方を少しずつ改善していきます。
dreamingも、イメージとしてはそれに近いものです。
Anthropicの説明によると、エージェントがセッションとセッションのあいだに過去の作業ログを見直し、繰り返し発生したミスやうまくいったやり方をパターンとして抽出する。
そして、その学びを次のセッションが参照できるノートとして残しておく仕組みです。
ポイントは、モデル自体を作り変えているわけではないということ。AIの「頭の中」を書き換えるのではなく、外側にある作業メモを整理しているイメージに近いんですよね。
Anthropicは法律分野のAIスタートアップHarveyでの導入事例として、タスク完了率が約6倍になったと紹介しています。実務で使うAIエージェントにとって、この差はかなり大きいです。
ちなみに現時点では研究プレビューという位置づけで、Claude Managed Agentsを使う開発者向けに提供が始まったばかり。
日常的なチャット用のClaudeにそのまま入っている機能ではない点は押さえておきたいところです。
「賢いAIを選ぶ」だけでは続かない
AIツールを導入するとき、最初に気にするのはやはり性能の話になります。どのモデルが一番賢いのか、新しい機能はどれくらい使えるのか。比較すること自体には十分意味があります。
ただ、仕事で継続的に使っていくなら、もう一つ大事な視点があります。それは、AIが失敗から学べる環境を一緒に用意しておくことです。
どれだけ高性能なAIでも、いきなり自社の業務ルールやチームの好みを完璧に理解するわけではありません。
最初は、指示の受け取り方を間違えたり、確認すべきポイントを見落としたり、期待と少しずれた成果物を出したりします。
ここで「このAIはダメだ」とすぐに切り捨てるのではなく、どこでずれたのかを見えるようにしておく。これだけで使い勝手が大きく変わってきます。
具体的にチェックしたいのは、依頼文があいまいだったのか、参考資料が足りなかったのか、チェック基準が共有されていなかったのか、作業後のフィードバックが残っていなかったのか、といったポイント。
dreamingのような仕組みは、こうした振り返りをAI側で自動化しようとする試みとして捉えるとわかりやすいです。
チーム運用で効いてくる「学び方の設計」
この考え方は、個人利用よりもチーム運用で効果が大きく出てきます。
個人でAIを使っている場合は、自分の頭の中にある前提や好みを少しずつ指示文に反映していけば、ある程度はうまく回ります。
ところがチームで使う場合はそうもいきません。人によって指示の書き方が違い、成果物のチェック基準も少しずつ違う。業務ごとに守るべきルールも変わります。
その状態でAIエージェントに作業を任せるなら、単に「高性能なAIを導入しました」だけでは安定しません。むしろ大切なのは、AIが学びやすい形で仕事の流れそのものを設計することです。
たとえば、よくある失敗例をチームのドキュメントに残しておく。成果物のチェックポイントを明文化する。修正した理由を一言メモとして添えておく。うまくいった依頼文をチームで共有する。
AIに任せる範囲と人間が必ず目を通す範囲を分けておく。どれも、難しいAI開発の話ではなく、日々の業務改善の延長線上にある工夫です。
新人メンバーに仕事を教えるとき、「何を見て、どう直せばよいか」が伝わる環境を用意しますよね。AIに対しても同じ発想で準備しておく。そう考えると、急に身近に感じられるはずです。
まとめ
AnthropicのdreamingというニュースをAIニュースとして見ると、新しい機能の一つに見えます。
一方で、実務目線で見ると、AI活用の重心が「賢いAIを選ぶ」から「AIが学べる環境を整える」へと移ってきている流れが見えてきます。
失敗例やチェック基準、修正理由を残し、AIに任せる範囲と人間が確認する範囲を整理する。地味な工夫ですが、ここを積み重ねたチームほど、AIエージェントを実務で使いこなしていけるはずです。
まずは、自分のチームで「AIが間違えやすいポイント」を1つだけ書き出してみるところから始めてみてください。

