Amazon Kendraとは?Query APIとRetrieve APIの違いを初心者向けに解説
近年、生成AIの普及により「社内文書やナレッジをより高度に活用したい」というニーズが急増しています。
特に、大量の文書の中から必要な情報を迅速かつ正確に探し出す「社内検索」の重要性が、非常に高まっています。
そのなかで注目されるのが、AWSが提供する「Amazon Kendra」です。
今回はそのKendraについて、初心者向けにわかりやすく解説していこうと思います。
目次
はじめに
こんにちは。クラウドソリューショングループのwatanabe.tです。
Kendraは単なる全文検索を超え、自然言語処理(NLP)や機械学習(ML)を活用した高精度な検索を実現しています。
また、Amazon Bedrock(生成AI/LLM)との連携により、質問に対してピンポイントな回答を返すことが可能になっています。
しかし、Kendraを活用する際に、多くのユーザーが迷うポイントがあります。それが「Query API」と「Retrieve API」の違いです。
- Query APIとRetrieve APIの違いは具体的に何なのか?
- それぞれのAPIをどのようなシーンで使い分けるべきか?
本記事ではこれらの疑問に具体例を交えながらわかりやすく解説し、みなさんが最適なAPIを選択できるようにしていきたいと思います。
Amazon Kendraの概要
Amazon Kendraは、AWSが提供する高度な機械学習を用いたエンタープライズ向け検索サービスです。
自然言語処理(NLP)技術を利用し、ユーザーが自然な言葉で検索した際にも正確かつ迅速に回答を導き出せるとうたっています。
Amazon Kendraの特徴 – Amazon Web Service
従来の全文検索とは異なり、Kendraは質問の意図を理解し、より適切な回答を返すことが可能なようで、
社内文書、FAQ、マニュアル、顧客対応の履歴など、多種多様なデータソースと連携できるため、企業内のナレッジを効率的に活用できるようです。
Amazon Kendraの主な特徴
- 自然言語による高精度な検索
- 複数のデータソース(S3、SharePoint、RDS、ウェブサイトなど)への簡単な接続
- 機械学習による検索結果の継続的な改善
- セキュリティとコンプライアンスへの対応(アクセス制御、データ保護)
Amazon Kendraの主な用途
- 社内ナレッジベースの構築
- FAQやカスタマーサポート対応の強化
- ドキュメント管理や規程文書検索の効率化
- 生成AI(LLM)と連携した高度な検索ソリューションの構築
Query APIとは?
さて、ここからは各APIについて深掘りしていきましょう。
「Query API」は自然言語でのクエリに対して、質問応答型のレスポンスを返すインテリジェント検索機能です。
Query APIの主な特徴
- 質問文の意味を理解して、該当する文書から“答え”を抽出
- 検索結果にはスコア付きの文書リストだけでなく、直接的な回答(AnswerText)が含まれる
- 例えば、「有給休暇の取得方法は?」と聞くと、詳細が記載された当該文書の該当箇所だけが表示される
- FAQや自動応答などを目的に利用される
Retrieve APIとは?
続けて、Retrieve APIについても見ていきます。
「Retrieve API」は検索対象のドキュメントから、関連性の高いドキュメントの“チャンク(部分)”を取得するAPIです。
Retrieve APIの主な特徴
- 回答ではなく、関連文書の断片(段落など)を複数返す
- 回答の生成は自前のLLMなどと組み合わせて行う想定
- 例えば、複数の文書から関連情報を取得した後、Amazon Bedrockで回答を生成させるなど
- 自前でRAGを構成したり、カスタムフローに組み込む場合に利用される
Query APIとRetrieve APIの比較まとめ
では最後に、ここまで紹介してきた、Query APIとRetrieve APIの特徴をまとめてみましょう。
項目 | Query API | Retrieve API |
主な目的 | 検索と直接的な回答 | 関連情報の取得(LLMでの回答生成に活用) |
出力内容 | 回答+関連ドキュメント | 関連ドキュメント(チャンク) |
向いている用途 | FAQ、自動応答 | RAG構成、LLM連携 |
ベース機能 | Kendra単体でも高精度回答可能 | 回答生成は別途LLMが必要 |
それぞれのAPIはどちらが優れているということではなく、向き不向きがあり、適材適所で利用していくのが肝要だということが分かりますが、Query APIの優秀さが目立ちますね。
おわりに
LLMの弱点を補うためのRAG、というのは比較的浸透しているなという印象ですが、
Amazon Bedrock, Amazon Kendraにはそれをさらに補強する機能が用意されていました。
各社、LLM自体の性能向上というのは力を入れていますが、2024年からは応用的な領域での競争が激化している印象があります。
さらなる生成AI周りの進化に置いていかれないよう、皆さんもしっかり情報収集していきましょう!