結論から言う。AIチャットを仕事に活かしたいなら、最初にやるべきことはプロンプトの練習ではない。自分の業務を棚卸しして「何をAIに任せるか」を決めることだ。

Accentureの2024年11月の調査によると、AI主導の業務プロセスを導入した企業は同業他社と比べ生産性が2.4倍に達している。一方でMcKinseyの「State of AI 2025」レポートでは、約3分の2の企業がまだ実験・パイロット段階にとどまっていると報告されている。この差を分けているのは、ツールの性能ではなく「どの業務にAIを使うか」の見極めだ。

SIer時代、筆者は業務改善提案を何度も書いた。そのとき身に染みたのは「いきなり全部変えようとすると全部中途半端になる」という原則である。AIの業務活用もまったく同じ構造だと判断している。この記事では、月に1回の「タスク棚卸し」で自分の業務からAI向きの作業を見つける判断基準5つと、そのまま使えるプロンプトを提示する。

「AIで何ができるか」ではなく「自分のどの作業に使うか」が先

AIチャットの活用でつまずく人の多くは「ChatGPTでこんなことができる」という機能紹介から入る。機能ドリブンのアプローチだ。だが仕事で成果を出している人はその逆で、自分の作業一覧から「これ、AIに渡せるのでは」と気づくパターンが圧倒的に多い。

OpenAIが公開している法人向けガイド「Identifying and Scaling AI Use Cases」でも、最初のステップは「自社の業務プロセスをリストアップし、AIが介入できるポイントを特定する」ことだと明記している。ツール選定はその後だ。

実際にClaudeで業務メモを要約させたら、1回目と2回目で構成がガラッと変わって30分悩んだ経験がある。あれは「何を要約させるか」の粒度指定が甘かったせいで起きた事故だ。つまり、プロンプトの書き方以前に「この作業はAIに向いているか」「どこまで任せてどこから人間がやるか」の判断が先にあるべきだった。

AIに向く業務・向かない業務を切り分ける5つの判断基準

以下の5軸で、自分の業務をAIに任せるべきか判断する。日経BOOKプラスのAI業務判断軸と、筆者自身のSIer時代の業務分析手法を掛け合わせて整理したものだ。

基準1: 繰り返し頻度——月に3回以上やるか

月1回しかやらない作業にAIのセットアップ工数をかけるのはROIが合わない。月3回以上繰り返す定型作業を最優先候補にする。週次報告の下書き、日報の整形、定型メールの返信あたりが典型だ。

基準2: 入力変数の少なさ——判断材料が3つ以内か

判断に必要な変数が増えるほど、AIへのインプットも膨らむ。プロンプトが長くなり、出力のブレも大きくなる。変数が3つ以内で収まる作業はAIと相性がいい。

逆に「社内政治の力学」「暗黙の文脈」「過去5年分の経緯」など言語化しにくい変数が絡む作業は渡すべきでない。AIはプロンプトに書かれた情報しか使えない。書けないものは渡せない。

基準3: 出力の正否を自分で検証できるか

これが最重要基準だと考える。AIの出力が正しいかどうかを、自分で5分以内に判断できる作業か。要約文の妥当性チェック、メール文面の適切さ確認、データ集計の正誤照合——こうした「正解がわかるもの」はAI向きだ。

一方、法的判断や医療に関わる領域は正解の検証に専門知識が必要になる。AIの出力をそのまま信用すると事故になる。

基準4: 失敗時のリカバリコスト——やり直しが数分で済むか

AIが間違えた場合、やり直しが数分で済む作業は積極的に任せてよい。だが間違いが外部に出て取り消せない作業——顧客への送信、公開ドキュメントの更新——は、AIの出力を下書きとして使い最終確認を人間がやる前提で設計する。

SIer時代の同じ轍を踏んだことがあって、一人レビューで設計書を「問題なし」と判断した結果、本番障害を起こした経験がある。AIの出力も同じだ。人間のチェック工程を省略した瞬間にリスクが跳ね上がる。

基準5: 出力フォーマットが決まっているか

「箇条書きで5項目」「表形式でまとめる」「メールの件名と本文」のように、出力の型が決まっている作業ほどAIの精度が安定するAnthropicの公式プロンプトガイドでも、出力形式の指定がブレ抑制に最も効果的だと明記されている。

「いい感じにまとめて」という丸投げ指示で毎回違う形式が返ってくるのは、バグではなく仕様上の当然の挙動だ。フォーマットを決めるのは人間の仕事である。

MiraiPost — AIが投稿する、未来の運用。
[PR] mirai-post.netlify.app

「月次タスク棚卸し」プロンプト——コピペでそのまま使える

以下のプロンプトをChatGPT(GPT-4o, 2026-05時点)またはClaude(Sonnet 4, 2026-05時点)にそのまま貼り付ければ、自分の月次業務からAI化候補を抽出できる。

あなたは業務プロセスの改善コンサルタントです。
以下の手順で、私の月次タスクからAIに任せるべき作業を特定してください。

Step 1: 私が月に繰り返し行う作業を10個ヒアリングしてください
    (1つずつ質問してOK)
Step 2: 各作業を以下の基準で◎/△/×に分類してください
  - 繰り返し頻度(月3回以上か)
  - 入力変数の少なさ(判断材料が3つ以内か)
  - 出力の検証容易性(5分以内に正否を判断できるか)
  - 失敗時のリカバリコスト(やり直しが数分で済むか)
  - 出力フォーマットの明確さ(形式が決まっているか)
Step 3: ◎が3つ以上の作業を抽出し、AI化の具体案を提案してください

出力形式: 表形式で、各作業×5基準の◎/△/×マトリクスを示すこと

ポイントは「ヒアリング形式」にしている点だ。自分の作業を一気にリスト化するのは意外と難しい。AIに1つずつ聞いてもらうほうが漏れなく洗い出せる。

動かないと意味がない。まずは上のプロンプトを貼り付けて、最初の質問に答えるところから始めてほしい。10分もあれば自分の業務の「AI化マップ」ができあがる。

棚卸しで見つかったAI化ポイント——筆者の実例3つ

筆者自身がこの棚卸しを実行した結果、以下の3作業がAI化候補として浮かび上がった。参考にしてほしい。

1. 業務メモの週次サマリ作成(◎×5)

毎週金曜に1週間分のメモを読み返してサマリを書いていた作業だ。入力変数はメモ本文だけ。出力は箇条書き3〜5項目。検証は自分で読めば1分でわかる。Claude(Sonnet 4, 2026-05時点)に任せてから、毎週30分の作業が5分に縮んだ。

2. 定型メールの返信ドラフト(◎×4、△×1)

取材依頼への定型的な返信。失敗時のリカバリコストだけ△にした。外部に出るメールなので送信前に必ず自分で読み直す。その工程は省略しない。AIは下書き担当だ。

3. 技術記事の競合調査メモ(◎×3、△×2)

記事執筆前に類似テーマの既存記事を調べる作業。検索と要約はAIに渡して、内容の正確性チェックは自分でやる。入力変数が「テーマ名」「ターゲット読者」「差別化ポイント」の3つだから、プロンプトも安定する。

逆に棚卸しで「×」判定になった作業もある。たとえば「記事の構成案を一から練る」作業はAIに丸投げすると毎回似たパターンの構成が出てくる。壁打ちとしては優秀だが、最終的な構成の責任は人間が持つべき領域だと判断した。

FAQ

AIに向く業務の判断基準で最も重要なのはどれ?

「正解の検証が自分でできるか」だ。AIは確率的に出力を生成するため、誤りを含む可能性が常にある。検証できない出力をそのまま使うのは、一人レビューで設計書を通すのと同じリスクを抱えることになる。2026年5月時点で、この原則はどのAIツールでも変わらない。

棚卸しプロンプトはどのAIチャットでも使える?

ChatGPT(GPT-4o以降)、Claude(Sonnet 4以降)、Gemini(2.x系以降)で動作する。無料プランでも利用可能だ。ただし、ヒアリングが10往復を超える場合は会話が長くなるので、新しいチャットで続きを入力するとトークン消費を抑えられる。

月次棚卸しは毎月やるべき?

最初の1回で主要な候補は出揃う。以降は四半期に1回、新しい業務が増えたタイミングで再実行すれば十分だ。AIツール側の機能追加で「以前は×だった作業が◎になる」ケースもあるため、定期的な見直しには意味がある。

プロンプトを使っても「◎」が見つからない場合は?

業務の粒度が大きすぎる可能性がある。「会議の運営」ではなく「議事録の作成」「アジェンダのドラフト」「出席者への連絡メール」のように、1つの業務をサブタスクに分解してから棚卸しすると候補が見つかりやすい。

参考文献