Skip to content
12月 13, 2025
9 min read time

CopilotでDX推進を加速する:なぜ現場は「AIが微妙」と言うのか(原因はSharePointにある)

なぜ現場が 「Copilotは微妙」と 言うのか

 

〜データ整備と“問いの設計”をセットにすると、Copilotは化ける〜

 

「Microsoft365 Copilotを入れたけれど、思ったより精度が出ない」
「社内のことを聞いているのに、なぜかネットの一般論ばかり返してくる」
「結局、自分で探したほうが早いと言われてしまった」

 

DX推進部門の皆さんには、現場からこうした溜息が聞こえてくることを感じていませんか?

みなさん こんにちは《聴くチカラ研究所》の4DL Technologies株式会社CCO荒巻順です。ブログへのご訪問、ありがとうございます。

makeAIworkforyou

 

鳴り物入りで導入した生成AI。しかし、期待していた「魔法のような業務効率化」が起きず、現場では「やっぱりAIなんてこんなものか」という冷めた空気が漂い始めていないでしょうか。

まず確認したいのは1つだけです。CopilotがWeb参照ONの状態だと、社内への質問でも一般論に寄りやすいことがあります(これは環境設定で制御可能です)。

そのうえで「Work(社内データ)を参照させたいのに当たらない」なら、原因はだいたい2つ。

データ(SharePoint)か、指示(問い)か——そして多くの会社で、この2つが同時に崩れています。

結論から申し上げます。Copilotが微妙なのは、AIの性能が低いからではありません。

AIが参照すべき「データ」と、AIへの「指示」が、AIにとって理解不能な状態にあるからです。

IT業界には古くから「GIGO(Garbage In, Garbage Out)」という言葉があります。「ゴミを入れれば、ゴミが出てくる」という意味です。

これは生成AI時代において、より残酷な真実として突きつけられています。

今回は、MS365 Copilotが「なんとなく便利止まり」で終わってしまうのか。

原因を、SharePoint(データ)とプロンプト(指示)の両面から解き明かし、DX推進担当者が配るべき「指示テンプレ」と、着手すべき「定着のための運用OS」について解説します。

 

SharePoint起点のGIGO:AIが読めない・見つけられない社内

 

MS365 Copilot の真骨頂は、プロンプトを「Grounding(根拠付け)」し、Microsoft Graphを通じて社内の膨大なデータ資産(SharePoint、OneDrive、Teams)を横断的に検索して答えを生成できる点にあります。

しかし、肝心のデータ置き場が「ゴミ屋敷」状態であれば、MS365 Copilotがいくら優秀なAIでも迷子になります。

現場がこぼす「Copilotが微妙」の原因の多くは、実は以下のようなSharePointの状態に起因しているかもしれません。

 

1. 「どれが正解か」がAIに判断できない

 

「〇〇規定.pdf」「〇〇規定_最新.pdf」「〇〇規定_2024改定_最終版.pdf」……。

同じフォルダに類似ファイルが乱立していませんか? 人間であれば、なんとなく更新日時やファイル名で「たぶんこれが最新だろう」と推測できます。

しかしAIは、指示がない限りこれらをフラットに扱います。結果、古い規定を参照して嘘の回答を生成してしまうのです。

 

2. 「中身が読めない」画像PDFの山

 

紙の書類をスキャンしただけの画像PDFは、テキスト情報が埋め込まれていないため、Copilotが安定して検索・参照できない場合があります。

Microsoft 365にはOCR(光学文字認識)機能が実装されていますが、有効化の設定や対象場所、ファイル条件によって挙動が変わるため、過信は禁物です。

特に「画像だけのPDF」は、テキスト化(OCR処理や透明テキスト付与)を前提に考えるのが安全です。重要なマニュアルがこの状態だと、AIはその知識を「あやふやにしか知らない」状態になります。

 

3. ファイル名が「暗号」になっている

 

「20241213_mtg_A.docx」のようなファイル名では、AIはその中身が「何の会議で、何が決まったのか」を推測する手がかりを持てません。

Copilotはファイル名、ファイル内容、メタデータを総合的に検索インデックスとして利用しています。

これらはすべて「GIGO」の入り口です。整理されていないデータ(Garbage)がある限り、AIは正確な回答(Gold)を返すことができません。

 

もう一つのGIGO:“ゴミ指示”からもゴミ生成が出る

 

「うちはSharePointの整理はある程度できているはずだ」という企業でも、Copilotが定着しないケースがあります。ここで見落とされがちなのが、もう一つのGIGO。すなわち「ゴミ指示(Garbage Instruction)」の問題です。

どれだけ綺麗なデータが揃っていても、AIへの指示(プロンプト)が曖昧であれば、AIは的確な情報を引き出せません。

例えば、「経費精算について教えて」という指示。

人間同士なら「あ、今月の締め切りのことだな」と文脈を補完できます。しかしAIに対してこの指示はあまりに範囲が広すぎます。

  • 経費精算の「申請方法」を知りたいのか?
  • 「対象品目」を知りたいのか?
  • 「承認ルート」を知りたいのか?

問いの解像度が低いと、AIは「SharePoint内の『経費精算』という単語を含む全ファイル」を対象に検索をかけ、結果として無難な要約や、関係のない部署の規定を拾ってきてしまいます。

これが「なんか違う」「求めていた答えじゃない」という不満の正体です。

DX推進担当者が現場に渡すべきは、単なるツールの操作方法ではなく、「AIに正しくデータを拾わせるための指示の型」なのです。

 

How to:SharePoint整備は全部やらない、まず3点だけ

 

「SharePointを整理しろと言われても、全社のファイルを直すなんて不可能だ」

その通りです。

DX推進のリソースは限られています。ですから、全社一斉に取り組むのではなく、「Copilotの回答精度に直結する3つのポイント」に絞って、小さく始めてください。

 

① 正本(Single Source of Truth)を決める

 

まず、AIに参照させたい「正解データ」を定義します。

  • 最新版のファイルのみを置く「正本フォルダ」を作る。
  • 旧版は「Archive」フォルダに移動し、閲覧権限を制限する(または検索対象外のライブラリに隔離する)。
  • ファイル名に【正本】や【最新】といった明確なタグを付ける。

SharePointの仕組み上、Copilotはユーザーがアクセス権を持つファイルのみを参照します。つまり、「人間が閲覧できない(権限がない)状態にすれば、AIも自動的にそのファイルを参照しなくなる」ということです。

まずは「よく使う業務の正本置き場」を検索の主戦場にする(=当てに行く棚を決める)。これだけで精度と信頼が劇的に上がります。

 

② 検索できる形に寄せる(テキスト化)

 

AIが読み取りやすい形式にデータを変換します。

  • 画像PDFは「テキスト検索可能なPDF」へ:
    OCR機能に頼り切るのではなく、確実性を優先するなら「透明テキスト付きPDF」への変換を強く推奨します。特に規定やマニュアルなど、AIに正確に答えてほしい重要文書ほど、事前にテキスト化しておくことで回答精度が劇的に向上します。
  • Excelはデータベース形式へ:
    表は1行目がヘッダーになっている形式に整えます。セル結合は「AIの敵」です。 人間には見やすくても、AIにとっては「どの列が何の項目か」の関係性が崩れ、読み間違いの原因になります。見た目の美しさより、データ構造の明確さを優先してください。

③ 更新のタイミングで置き換える

 

過去の遺産をすべて整理する必要はありません。

「更新が発生したタイミング」で、新しいルール(正本管理・適切な命名)に沿ってファイルを置き換えていくのです。

これを繰り返すことで、よく使われる「生きたデータ」から順に浄化されていきます。

まずは「社内で最も検索される頻度が高い3つの業務(例:旅費精算、勤怠管理、セキュリティ規定)」に絞って、この整備を行ってみてください。

 

How to:Copilot用「指示テンプレ」(プロンプト構造)を配る

 

データ整備とセットで行うべきなのが、現場への「指示テンプレ」の配布です。

「自由に聞いてみてください」は、現場を迷わせるだけです。以下の4要素を含んだ「型」を共通言語にしましょう。

【Copilot指示の基本構造】

  1. 目的(何のために): 「来期の予算策定のために」
  2. 対象範囲(どこから): 「『2024年度_営業本部_活動報告』フォルダ内の資料を参照して」
  3. 出力形式(どうやって): 「課題と対策を箇条書きでまとめて」
  4. 検証(裏付け): 「参照したファイル名(リンク)と、引用した該当箇所(見出し/段落)を示して」

特に重要なのが「2. 対象範囲」と「4. 検証」です。AIに対し「どこを見ればいいか」を明示し、かつ「情報のソース」を出させることで、ハルシネーション(嘘の生成)のリスクを管理できます。

DX推進担当者は、この構造をあらかじめ組み込んだ「コピペ用テンプレート」をA4一枚にまとめて配布してください。

それだけで、現場の出力品質は劇的に向上します。

 

4DL-AASでまとめる:定着するCopilot運用OSの作り方

 

ここまで解説してきた「データ整備」と「指示の設計」は、個別のテクニックではありません。これらは、組織としてAIを使いこなすための「運用OS(オペレーティングシステム)」の一部です。

私たちが提唱する「4DL-AAS(AI Activate Suite)」の設計思想で整理すると、生成AI(MS365 Copilot)を現場に自走的に定着することができます。

Copilotが「微妙」になる原因は、SharePoint(データ)だけでも、プロンプト(指示)だけでも説明できません。

本質は、データと指示が“組織として揃っていない”ことです。

4DL Technologies株式会社では、この状態を「4DL-AAS」の考え方で 3階層に分けてシステムプロンプトを設計します。

  • Protocol(思考基盤)
    何のためにAIを使うのか/何を成果とするのか/何を根拠とみなすのか(目的・判断基準・品質基準・NG境界)

  • Alignment(規律基盤)
    AIが迷子にならないよう、組織の前提を揃える層(正本=どれを信じるか、用語=何を同じ意味にするか、権限=どこまで見せるか、参照棚=どこを主戦場にするか、更新=いつ誰が直すか)
    ※SharePoint整備は、このAlignmentの“代表例”です。

  • Prompt(生成指示)
    現場の入力を同じ構造に揃えて、Copilotが正しく参照・生成できるようにする層(コピペできるテンプレ、質問の型、検証の型)

これは4DL Technologies株式会社が提唱する、エンタープライズの意志決定構造に沿ってAIを駆動するための理論です。

MS365 Copilotが“仕事データ+指示”で動く以上、どの企業でも必要になる普遍的な運用の型です。

多くの企業が導入時につまずくのは、いきなりツール(Copilot)だけを配り、この3階層の土台作り(AIへの問いOSのインストール)を現場任せにしてしまうからです。

「便利そうだから使ってみて」ではなく、「このルールでデータを置き、この型で指示を出せば、必ず成果が出る」という環境を用意すること。

それがAIを定着させる使命を持つDX推進担当者の忘れてはいけない仕事です。

 

まとめ:DX推進が明日やるToDoと、「次の一手」

 

MS365 Copilotは「魔法の杖」ではありませんが、正しい手順で扱えば、現場の人たちの業務効率を向上させる最強の副操縦士になります。

まずは、この記事の内容を“現場で回る形”に落とすために、次の3つから始めてください。

  1. SharePointの棚卸し(スモールスタート):
    よく検索される「上位3サイト」または「3業務」に絞り、正本フォルダを作って旧ファイルを隔離する。
  2. 指示テンプレの配布:
    「目的・対象・形式・検証」を含んだプロンプト例をA4一枚にして周知する。
  3. GIGO解消ループを回す:
    月1回、失敗事例を集めて「データが原因か/指示が原因か」を切り分けて直す。

——ここまでは“正攻法”です。

ただ、DX推進が本当に苦しいのはこの後。「テンプレは配った。でも現場が使わない」「棚卸しはした。でも定着しない」「上への説明が通らない」。つまり、運用OSを“組織にインストールする工程”です。

そこで私たち4DL Technologies株式会社は、MS365 Copilot定着を ANTシリーズというお客様の状況に合わせたカスタマイズできるトレーニングサービスで支援しています。

ポイントは「使い方」ではなく、問いの設計(Protocol)を軸に、Alignment(組織の業務規律性)とPrompt(生成テンプレ)をセットで回る状態にすることです。

  • ANT-B0(体験):
    現場で“なぜ微妙になるか”を体験し、GIGOの原因を可視化する
  • ANT-B1(設計):
    問いの型・指示テンプレ・正本ルールを標準化して、運用OSの土台を作る
  • ANT-B2(実装):
    部門固有の業務に合わせて、運用が回り続ける仕組みに落とし込む

MS365 Copilotを「便利止まり」で終わらせないために必要なのは、機能の追加ではなく、問いとデータの“整備が続く設計”です。

もし貴社でも同じ症状が出ているなら、まずは ANTシリーズの資料(またはPoC相談)で、どの層(Protocol/Alignment/Prompt)が詰まっているかを一緒に特定しましょう。

 

関連情報・お問い合わせ

 

記事執筆者

荒巻 順|4DL Technologies株式会社 CCO(AIソリューションデザイン統括)

CCO

AIを“効率化ツール”で終わらせず、組織の意思決定と行動を進化させる「思考支援の仕組み」として実装・定着させることを専門とする。

NTTドコモビジネス(旧NTTコミュニケーションズ)にて25年以上、BtoBセールス部門の人材育成・資格制度・研修体系の企画設計を統括。延べ4万人超の現場に入り、「現場の事実が判断軸を育て、判断軸が現場を変える」循環を、育成と変革の実務として回し続けてきた。

現在は4DL TechnologiesのCCOとして、独自の3層アーキテクチャ 4DL_AAS(Protocol/Framework/Prompt)を設計思想として、生成AIを“作業の高速化”から“判断軸の高速更新”へ転換する導入・定着・内製化支援を行っている。

 

よくある質問(FAQ)

Q1. 荒巻 順は、どのような課題を解決する専門家ですか?

「生成AIを導入したが、現場で活用されず成果が出ない」という課題の解決が専門です。独自のフレームワーク(4DL-AAS)を用い、AIを単なる効率化ツールではなく、組織の「思考支援パートナー」として定着させ、意思決定の質を高めるコンサルティングを行います。

 

Q2. 具体的には、どのような経験がありますか?

NTTドコモビジネス様で25年以上にわたりBtoBセールス部門の研修・試験設計を、千葉市産業振興財団様で12年間、創業支援研修の企画運営を責任者として担当しました。この経験を基に2022年11月のChatGPT 3.5登場以来、通信・鉄道などのインフラ企業や地方自治体などの公共団体など、様々な組織へのAI導入・定着支援を主にトレーニングという側面から行っています。

 

Q3. 生成AIの導入・定着について相談すると、何が得られますか?

貴社の業務プロセスにAIを組み込み、AI活用による「業務の高付加価値化」が現場で自走する状態を目指します。たんなるプロンプト研修では無く、主要なAIプラットフォームに対応した独自のプロンプト設計手法(4DL-AAS)を用いた実務的な組織的LLM動作設計から、定着・内製化までを一貫して支援することで、付加価値を生み出し続ける強い組織を構築します。