🔍 RAG(Retrieval-Augmented Generation)とは?
RAG(Retrieval-Augmented Generation) は、生成AIが回答を出す際に、自身の学習済みモデルだけでなく、外部の情報ソース(ナレッジベースなど)をリアルタイムで参照しながら応答を生成する仕組みです。
たとえば、AIが「返品ポリシーを教えて」と聞かれたとき、あらかじめ学習していた一般情報だけでなく、社内の最新マニュアルやヘルプページから情報を引き出して、そこに基づいた回答を返すような仕組みです。
これにより、AIは静的な知識に縛られず、常に最新の業務情報を反映した回答が可能になります。
💡 IntercomにおけるRAG相当の仕組みとは?
Intercomでは、「これはRAGか?」という質問を受けることがあります。厳密にRAGという語を使っていなくても、RAGと同等の考え方が組み込まれています。
具体的には:
ConfluenceやNotionなどの外部ナレッジソースを直接接続することで、
ユーザーからの問い合わせに対し、それらのドキュメントを参照しながら自動応答を行う
という設計になっており、これはまさに「情報を引き出して生成に活かす」というRAG型の構成に当たります。
⚠️ しかし――RAGは魔法ではない
ここで重要なのは、RAGは“仕組み”であって、“正しい回答を保証するもの”ではないという点です。
いくら優れたAIと高度な接続インフラがあっても、接続先のConfluenceやNotionにある情報が古い、重複している、バージョンが不整合している、構造が悪いといった問題があれば、AIは誤解しやすく、的外れな回答や誤情報を返してしまうリスクがあります。
つまり、**RAGの成果を左右するのは、最終的には「コンテンツの整備状況」**です。
✅ まとめ:AI活用のカギは情報整備にあり
IntercomのようにRAG的なアーキテクチャを採用していても、それだけでは不十分です。
AIに使わせる情報が整っていなければ、AIのパフォーマンスも上がりません。
したがって、AIを導入しただけで終わらせず、ナレッジベースや社内ドキュメントを定期的に整備・更新することが、ビジネススピードや顧客対応品質の向上につながるという理解が重要です。