春日井商工会議所で「生成AIプチセミナー&実践ワークショップ」という3回シリーズが始まりました。
ただ、いろいろな想定外がおきて、3時間のうちワークショップが20分というバグった構成になってしまい反省しています。

今回のシリーズでは、初回が「業務改善」、2回目が「事業計画」、3回目が「マーケティング」という流れになっています。
この中で「業務改善」は、現状からの改善という性質上、生成AIの効果が最も分かりやすいテーマだと感じています。

業務改善において特に有効なのがNotebookLMだと考えています。
自分のソースから様々な図解や資料、音声を作ってくれるRAGツールとして、まさに「理解の効率化」ツールだと考えています。

ただ、NotebookLMが業務改善に向いている本当の理由は、その「理解の効率化」だけではありません。
より重要なのは「AIの透明性」、つまりソースを限定し、根拠が引用される仕組みにあります。その特徴を3つまとめてみます。

一つ目が、回答範囲が「自分が入れたソース」に限定されることです。
NotebookLMは、ノートに取り込んだソースを使って質問に答える設計になっています。これにより「どこを見て答えたか」の範囲が明確になります。

二つ目が、使うソースを選んで会話できるという点です。
特定のソースだけを選択して回答させれるので「この資料群だけで答えて」という指定が可能です。これが透明性、つまり根拠のスコープが見えることになります。

三つ目が、引用機能によって根拠の場所まで辿れることです。
生成結果には、元資料の該当箇所へリンクする形の引用や参照が付くため、「本当に書いてあるか」を検証しやすくなっています。

これらは生成AIのリスクであるハルシネーション(AIの回答間違い)を減らすことにもつながります。
どこから学習したのかわからない情報で回答が生成されると、そのソースの信頼性が担保できず間違いに気付きにくいからです。

ただ、注意すべきポイントもあります。ソース選定が偏ると、回答も偏ります。透明なのはあくまで「範囲」であり、正しさは別問題です。
また、引用が付いても、解釈や要約はAIが行うため、重要な判断は必ず原文確認が必要になります。

業務改善という現場では、AIの提案をそのまま鵜呑みにするわけにはいきません。
なぜその提案が出てきたのか、どの資料に基づいているのかを確認できることが、実務での信頼性につながります。NotebookLMはこれに応えてくれます。