概要

AIツールの回答をそのまま社内依頼に転記して失敗した経験から、「一次情報の裏取り」の重要性を再認識した話。

何が起きたか

Notion連携の設定でAIに聞いた回答を、そのまま社内の権限付与依頼に貼り付けて提出した。結果、依頼を受けた側から以下の指摘を受けた。

  • 「AIがこう言っているから」は根拠にならない
  • 依頼先が正しいか判断できる材料(一次情報へのポインタ)がない
  • 依頼先にゼロから検証コストを転嫁している

実際、AIの回答はSelf-Hosted方式前提の不完全な情報で、公式ドキュメントを確認すればHosted MCP(OAuth認証)で簡単に解決できる内容だった。

なぜ問題なのか

1. 依頼先に不要な検証コストを負わせる

依頼を受けた人は「この情報は正しいのか?」を判断するために、結局自分で公式ドキュメントを読むことになる。依頼者が本来やるべき作業を他人に押し付けている構図になる。

2. 根拠のない情報は信頼されない

「AIが言っていた」は「ネットに書いてあった」と同じレベル。技術的な依頼において、公式ドキュメントのURLや具体的なバージョン情報がないと、受け手は何も判断できない。

3. 文脈の妥当性は依頼者が考えるべき

今回の例では、APIトークンの権限範囲やセキュリティ上の考慮といった、依頼先が気にするポイントを依頼者側で検討すべきだった。AIはその組織固有の事情を知らない。

改善後のワークフロー

Before:
  AIに聞く → 回答をそのまま依頼に転記

After:
  AIに聞く → 公式ドキュメントで裏取り → 根拠URLを添えて依頼

具体的には:

  1. AIの回答は「調査の起点」として使う — 最終的な根拠にしない
  2. 一次情報のURLを必ず添える — 公式ドキュメント、リリースノート、RFC等
  3. 依頼先の視点で考える — 受け手が判断に必要な情報を先回りして提供する
  4. わからないことは「わからない」と言う — AIの回答で武装するより正直な方がまし

教訓

AIの出力は下書きであって、根拠ではない。

他人に何かを依頼するとき、その内容の妥当性に責任を持つのは依頼者自身。AIを使うこと自体は問題ないが、裏取りなしに他人の時間を使わせるのは無責任になる。

「調べてないけどわかりません」の方が、「AIがこう言ってます」より誠実なケースもある。