12問中 0問が回答されています
質問:
You have already completed the テスト before. Hence you can not start it again.
問題を読み込んでいます…
You must sign in or sign up to start the テスト.
まず、次の操作を完了する必要があります:
正解数 0/問題数12
回答にかかった時間:
終了時間となりました
回答お疲れ様でした。
Earned Point(s): 0 of 0, (0)
0 Essay(s) Pending (Possible Point(s): 0)
【AIF-60】FinTech企業は Amazon Bedrock の基盤モデルを用いて顧客チャットを5分類する。
ゼロショットより分類精度を15%向上させつつ、1 リクエスト 8 KB の制限内で推論したい。
Few-shot プロンプトを作成する際、例示選択のベストプラクティスとして最も適切なのはどれか。
Amazon Bedrock では few-shot を行う際、モデルが最初に見る位置ほど重み付けが高くなるため、チャット本文より前に小さくても質の良い例示を置くことが鍵です。5 クラスなら各クラスを網羅するラベル付き代表文を3〜5件に絞り、指示文は「カテゴリを出力してください」程度に短縮すると、8 KB 内でトークンコストを抑えつつゼロショット比で 15% 以上の精度向上が狙えます。加えて入力文と出力形式の枚挙をそろえておくと、AWS Guardrails で安全性チェックを通過しやすくなる副次効果も期待できます。
生データを大量に貼り付けると Amazon Bedrock が受け取るトークン数は急増し、4 k 程度の上限に達すると推論リクエスト自体が失敗します。例えば CloudWatch Logs から取得した最新チャット100件を無加工で並べれば、ラベルも順序情報もないため Attention が発散しやすく、学習信号よりノイズが勝ってしまいます。分類タスクでは総量よりも情報密度が重要で、代表性とラベルの明示が few-shot 効果を最大化するというのが AWS Prompt Engineering Workshop で紹介されたベストプラクティスです。
temperature を 0.0 にして決定論的出力にしても、インプット次第では誤分類は残存しますし、末尾に数件だけ例示を置いてもトークン距離が伸びて効果は限定的です。位置、件数、多様性、ラベル、そして 8 KB 制限という複数の要件を俯瞰すると、限られた先頭領域にラベル付きで多彩な代表文を3〜5件配置し、余白を削って簡潔な指示にまとめる戦略が総合的に最適と判断できます。
【AIF-61】旅行代理店A社は Amazon Bedrock 上で Claude v2 を用いた FAQ チャットボットを開発している。
社内規定では、回答は常に敬体かつ200文字以内とし、禁止語リストの単語を含めてはならない。
運用負荷を下げるため、毎ターン同じ規定を明示的に渡すことは避けたい。
この要件を最も効率よく満たすプロンプトエンジニアリング手法はどれか。
Amazon Bedrock で Claude v2 を呼び出すとき、冒頭で role=system のメッセージに「常に敬体、200文字以内、禁止語リストを含めない」というガイドラインを設定すると、その指示は全ターンに自動で引き継がれます。system メッセージはモデルが最優先で参照するため、後続では user ロールに純粋な質問だけを渡せば済み、コードも短くトークン課金も抑えられます。さらに system レイヤーは開発者だけが触れられるので、利用者が誤ってトーン指示を上書きするリスクもなく、コンプライアンス面でも安心です。
毎ターン user プロンプト末尾に敬体指定や禁止語を付け足す方法も動きますが、Amazon Bedrock では turn 数に比例してトークンが増え、推論コストがかさみます。加えてコピー漏れがあると Claude v2 は制約を認識できず逸脱する恐れがあります。一度 system に固定すればログも短くレビュー負荷が減り、長期運用時のヒューマンエラーを低減できます。また temperature や top_p を 0 にしても文体や語彙規制を確実に守る仕組みではないため、確率調整よりまずプロンプト側でルールを厳格に宣言する設計が安全です。
「敬体」「200文字以内」「禁止語排除」といった複数制約を恒常的に維持するには、生成エンジン側でルールを覚えさせるのが鍵です。Amazon Lex にはインテントやスロット管理の機能はありますが、生成文の細かな語調統制は直接行えません。Claude v2 の system メッセージは一度の入力で全ターンに強く効くため、トークン削減・漏れ防止・優先度設定など複数観点を俯瞰すると、会話開始時に明確なポリシーを置き後は質問のみを送る方法が総合的に最も合理的と判断できます。
【AIF-62】EC 事業者は Amazon Bedrock 上の Claude v2 を用いて毎日 5,000 件の製品紹介文を日・英・西の 3 言語で生成している。
追加学習は行わず、修正率 10% 未満を維持しつつブランドトーンの一貫性を高めたい。
最小の変更で文体ぶれを防ぐプロンプト設計手法として最も適切なのはどれか。
追加学習を行わない前提では Amazon Bedrock の Claude v2 にブランドトーンを伝える手段として、プロンプト内部にガイドラインと高品質な完成例を 3〜5 件示すフューショットプロンプティングをテンプレート化し、可変情報のみ差し替えて高速一括生成する方法が最小工数で文体ぶれを抑えやすく、日・英・西の 3 言語でも修正率 10% 未満を維持しやすいです。
モデル自体を Amazon SageMaker JumpStart で追加学習する案は確かに効果的ですが、データ整備・ハイパーパラメータ調整・推論エンドポイント運用まで大規模な変更を伴いコストが跳ね上がるため、Prompt Engineering の王道である Few-Shot でブランドガイドラインを直接示す方が「最小の変更」という試験条件には合致しやすいと整理できます。
ゼロショット生成後に Amazon Comprehend で感情分析を掛けたり温度 0 で固定出力したりする設定はブランド固有の語調を具体的に制御しきれず再生成が増えがちですので、毎日 5,000 件を多言語で処理しつつ追加学習なし・修正率 10% 未満・運用負荷最小という複数要件を俯瞰すると、ガイドと良質サンプルを含むテンプレート型フューショットプロンプトが総合的に最も合理的な選択となります。
【AIF-63】EC サイトを運営する企業が Amazon Bedrock の Claude v2 を用い、注文履歴を要約し JSON 形式で返す API を実装したい。
現在は自然文混在の応答が返り下流処理が失敗する。
最も再現性高く JSON を返させるプロンプトエンジニアリング手法はどれか。
Amazon Bedrock の Claude v2 に決まったスキーマの JSON を返させたいときは、API Gateway や Step Functions など後段のパース処理を意識し、プロンプト内で顧客 ID や合計金額を含む 2〜3 個の完全な JSON 例を示してからキーの説明を列挙する方法が、単に「JSON で答えて」と指示するだけよりも出力の揺れを小さくできると実務で確認されています。
Claude v2 は Chain of Thought を誘導すると推論過程の文章が交じりやすく AWS Lambda へ渡す際の検証に手間が増えがちですが、具体的な JSON サンプルを含むプロンプトは自己注意機構が構造を学習しやすく、大量注文データを S3 に蓄積しても安定して自然文を排した応答を返すため、温度調整よりも整形コスト削減に寄与します。
ゼロショット命令ではネスト深度やキー順序が CloudWatch Logs で見るたび微妙に変わる恐れが残りますが、スキーマと複数サンプルを持つフューショットを渡せばモデルが出力形を一般化し、再現性高く JSON のみを生成できますので、後段システムと運用監視の両面を俯瞰して最適な手法を選択しましょう。
【AIF-64】FinTech 企業は Amazon Bedrock の基盤モデルで、毎分 500 件のチャット履歴をリアルタイムに要約し顧客ポータルへ返す機能を開発している。
出力にクレジットカード番号などの PII を一切含めないことが厳格な要件であり、開発チームは推論 API 呼び出し時のプロンプトだけで制御したい。
最も適切なプロンプトエンジニアリング手法はどれか。
Amazon Bedrock では推論 API に渡すプロンプト内で「してよいこと、してはいけないこと」を文章で細かく宣言できます。ネガティブプロンプトとして『この要約にはクレジットカード番号や住所などの PII を一切含めるな』と書けばモデルは自動で除去を試み、Bedrock の組み込みコンテンツフィルタリングとも合わせて追加の Lambda や Glue を用いずとも毎分 500 件のチャット履歴を低レイテンシで処理できます。
プロンプトに制約を書かずゼロショットで推論し、あとで AWS Lambda や Amazon Comprehend のエンティティ抽出で PII を抜く方法も考えられますが、ネットワーク往復と関数実行が挟まるとミリ秒単位の遅延が積み重なり、フィンテックのリアルタイム応答性やコスト効率の要件を満たす設計かどうかを再確認する必要があります。
要約品質、PII 漏えい防止、500 件/分という高スループット、そしてプロンプトだけで完結させたいというシンプルさ──これら複数の要素を俯瞰すると、Amazon Bedrock のプロンプト側で否定的制約を明示しガードレールを強化するアプローチが、CloudWatch で監視する運用の観点まで含めて最もバランスが取れていると整理できます。
【AIF-65】ある e コマース企業は Amazon Bedrock 上の大規模言語モデルを用いて FAQ チャットボットを開発している。
モデルの再学習やカスタムモデル作成は行わず、推論時に 5 件の代表的な Q&A をプロンプト内に含め、ブランド固有の語調と回答フォーマットを模倣させたい。
この要件を満たす最適なプロンプトエンジニアリング手法はどれか。
Amazon Bedrock はモデルを再学習せずにプロンプト内の情報だけで振る舞いを調整するコンテキスト内学習が得意です。語調やフォーマットを忠実に再現したい場合、S3 に保管した代表的な Q&A を 5 件ほどそのままプロンプトに埋め込み、ブランドらしい回答例を提示すると追加の SageMaker ファインチューニングを行わずに安定した応答が得られます。
プロンプトの設計手法には、例を示さず指示文だけを渡すゼロショット、少数の例を加えるフューショット、推論過程を段階的に出力させるチェイン・オブ・ソート、不要な語句を排除するネガティブなどがあります。FAQ のように回答パターンと語調が決まっているケースでは、API Gateway や Lambda から呼び出す際に具体的なペア例を一緒に送ると、Bedrock のモデルが例を模倣して期待どおりに応答しやすくなります。
今回の要件は ①再トレーニング不可 ②5 件の代表 Q&A を活用 ③ブランド固有の語調を維持、という三つを同時に満たす必要があります。Athena で抽出した頻出質問を例示に選び、In-Context Learning を活用して Bedrock エンドポイントへ少量の事例付きプロンプトを送れば、複数条件を俯瞰した総合判断として最もシンプルかつ効果的な手法に行き着くでしょう。
【AIF-66】金融系スタートアップは Amazon Bedrock 上の Stable Diffusion XL でブランドイラストを作成している。
既定 CFG Scale 7 では背景が散漫になり、2 まで下げると抽象画が増えた。
運用負荷を抑えつつプロンプト忠実度を高め、アーティファクトも抑制したい。
最も適切な推論パラメータ調整とプロンプトエンジニアリング手法はどれか。
Amazon Bedrock で Stable Diffusion XL を動かす際、CFG Scale は 5〜10 が公式リファレンスでも推奨域とされます。既定 7 で背景が散漫なら 8〜10 へ小幅に上げるとテキスト条件が強まり、過補正のリスクも抑えられます。InvokeModel API では cfg_scale を数値で送るだけなので、コード変更は最小限で金融系スタートアップの運用負荷を増やしません。
不要な背景やアーティファクトを除去したい場合、negative_prompt を JSON に追加する手法が Stable Diffusion XL では効果的です。「busy background, artifacts」のように除外語を指定すると、同じ CFG Scale でもモデルはそれらを避けて画像を出力します。Amazon Bedrock なら文字列を渡すだけで済むため、Step Functions や Lambda バッチに組み込んでも追加のツールや CLI オプションが不要で、品質向上と運用簡素化を同時に実現できます。
ステップ数を極端に削減した高速化やシードを毎回変える多様性追求は、今回求められる「忠実度向上とアーティファクト抑制」とは直結しにくいです。むしろ適切な cfg_scale 調整と精密な negative_prompt を組み合わせれば、CloudWatch 監視や SageMaker Pipeline での設定ばらつきも減り保守が容易です。複数要件を俯瞰すると、小幅な数値上げと除外語併用が総合的に理にかなった選択と判断できます。
【AIF-67】ある金融SaaS企業は Amazon Bedrock 上で Claude 3 を利用している。
毎リクエスト 1,500 トークン以内の顧客入力を要約し、監査目的で 200 トークン以下の結論のみを保存することが求められる。
機密保持のためモデルの思考過程をレスポンスに含めず、応答の揺らぎも抑えてコストを最小化したい。
最適なプロンプト設計はどれか。
Amazon Bedrock で Claude 3 に要約させる際、1,500 トークンの入力を監査用に 200 トークン以内へ収めるには、プロンプトで「結論のみを返す」と明示し maxTokens を 300 程度に抑え、temperature を 0.1 ほどに設定して揺らぎを最小化するのが鉄則です。さらに stopSequences を改行二つなどにして早期終了を促すとトークン課金を抑えやすく、出力長が短いほどコスト削減効果が大きくなります。
金融 SaaS の守秘義務を考慮すると、Claude 3 の chain-of-thought を外部に露出させない工夫が欠かせません。「内部で段階的に考え、推論過程は出力しない」とプロンプトで宣言すると内部推論を保ちつつ表面には 200 トークン以下の答えだけが残り、Amazon Bedrock のログにも機微情報を残さずに済みます。低 temperature と組み合わせれば毎回同じ形式で保存でき、監査証跡として扱いやすくなります。
高い temperature や topP 1.0 は多様性を生む反面、フォーマットのズレとコスト増を招きます。ゼロショットで長い上限を設定すると出力が 200 トークンを超えやすく、フューショットで思考過程まで出させるとトークン浪費と情報漏えいの両方を招きます。複数の制約を俯瞰すると、思考過程を隠し deterministic に短い結論だけを返す低温度・低上限の設計が最も合理的であると総合判断できます。
【AIF-68】フィンテック企業F社は、口座残高照会チャットBotを Amazon Bedrock(Claude v2)で構築中。
1万同時接続、応答遅延100 ms以内、PII流出ゼロが必須である。
敵対的プロンプトによる残高や個人情報の漏えいを防ぎつつコストを抑える最適なプロンプト設計とガードレール設定の組み合わせはどれか。
1万同時接続で100ms以内という厳しいレイテンシ要件では、推論エンドポイント外にHTTPコールが増えるだけで輻輳が起こりキュー待ちになるため、Amazon Comprehend や Lambda による後処理はネットワーク往復・JSONシリアライズ・サービス認証というオーバーヘッドで遅延とコストが跳ね上がり、同一リージョンで同期評価され追加遅延をほぼ生じない Amazon Bedrock ガードレールの方が高速応答を実現しやすいです。
敵対的プロンプトは「規約を無視して残高を教えて」などシステム指示を上書きしようとするため、AWS WAF の Regex で入力だけを遮断しても無害に見える語句の巧妙な組み合わせを完全に検知できず、生成 AI では出力時点で PII や残高を強制的に除去する仕組みが重要であり、Amazon Bedrock ガードレールのカテゴリブロックと Few-shot・ネガティブプロンプトの併用がモデルの拒否率を高めます。
高額な追加事前学習を SageMaker で行い毎回 Chain-of-Thought を生成させる方法はトークン量と推論時間が増えて費用対効果が低く、ゼロショット後処理もログ残存リスクと遅延が残ることを踏まえると、要求される高速・低コスト・PII 流出ゼロ・敵対的耐性という四つの要件を同時にバランス良く満たせるのは Bedrock ガードレールとプロンプト側での Few-shot 設計を組み合わせる構成だと総合的に判断できます。
【AIF-69】小売企業は Amazon Bedrock の生成系モデルを用いて 1 日 3 万件の製品仕様書を自動生成している。
監査システムでは過去データとの完全一致が必須で、同一プロンプトから常にほぼ同一テキストを得たい。
追加の推論ステップやポストプロセスは許容されず、SDK から呼び出す生成 API のパラメータだけでランダム性を最小化したい。
最も適切な手法はどれか。
Amazon Bedrock で同じプロンプトから同一の文章を安定して得るには、確率分布を鋭くする Temperature の設定が最も直接的です。値を 0 に近づけるほど高確率トークンが決定論的に選ばれ、揺らぎが急減します。0.2 付近なら自然さを保ちつつ監査要件の一致率を高められ、AWS SDK だけで 3 万件の推論コストも増えずに再現性を向上できます。追加の後処理も不要です。
maxTokens や stopSequences は Amazon Bedrock の API で長さや終了条件を定義するためのパラメータであり、文章中でどのトークンが選択されるかという確率分布には影響しません。語数を固定しても文中の分岐点は確率的に決まるため完全一致は保証されません。Temperature や top-p のような分布制御パラメータと役割を切り分けて考えると、AWS の生成 AI チューニングで迷いにくくなります。
追加ステップなし・API だけでランダム性を最小化したい・1 日 3 万回でもコストを増やしたくないという複数要件を俯瞰すると、現状の Amazon Bedrock では確率分布を低温側へ寄せる Temperature 調整が唯一利用者が自由に操作できる決定論的手段となります。乱数シード指定は提供されておらず、長さ制御も目的外であるため、総合判断としては低温設定の活用が最適です。
【AIF-70】法律文書を要約する SaaS を運営するスタートアップは、Amazon Bedrock で Claude 系 FM を呼び出し 1 日平均 50 万トークンを処理している。
月次コスト削減が最重要 KPI であり、応答品質は維持したい。
入力トークン数を最小化するプロンプトエンジニアリング手法として最も適切なのはどれか。
Amazon Bedrock では入力と出力のトークン総数がそのまま従量課金に反映されるため、Claude へ毎回同じ指示文を長文で送る設計は無駄な重複トークンを生みます。短いテンプレートに要約対象テキストのみを埋め込む方式へ最適化すれば、変動しない定型部分を徹底して圧縮でき、1 日 50 万トークン規模でも数十%のコスト削減が現実的です。テンプレート作成時は変数名やフォーマットを簡潔にし、モデルが誤解しない範囲で語数を最小化することがポイントとなります。
few-shot で複数の例文を添付したり chain-of-thought を促して詳細な推論手順を出力させる方法は、Amazon Bedrock 上で精度や説明性を高める局面もありますが、例文や推論文自体が大量の追加トークンとなって料金を押し上げます。法律文書の要約は構造が比較的安定しているため、ゼロショットでもモデルは高い再現性を示すケースが多く、品質向上効果よりコスト増加のインパクトが勝りがちです。運用目的が費用最適化であれば、まずは不要な例示や思考出力を控え、シンプルな指示でどこまで品質を確保できるかを検証するのが賢明です。
Amazon Lex など別サービスを前段に挟んで入力を転送しても、最終的に Amazon Bedrock で処理されるトークン量は変わらず追加課金が発生します。月次コストの削減という KPI を達成するには、課金モデルを正しく捉え、Claude へのリクエストから定型部分を除外するテンプレート化こそが入力トークンを直接的に減らせる唯一の手法となります。複数のアプローチを俯瞰した総合判断として、品質を維持しながら重複トークンを機械的に排除できるプロンプト設計が最も合理的であると結論づけられます。
【AIF-71】旅行予約企業がAmazon Bedrock上のTitan Textを用いて顧客向け旅程案を自動生成するPoCを実施している。
出力にパスポート番号など一切のPIIを含めないことが必須で、追加開発は最小限に抑えたい。
短期間で要件を満たすプロンプトエンジニアリング手法として最も適切なのはどれか。
Amazon Bedrock 上で Titan Text を用いた旅程自動生成を短期間で披露する PoC では、コード変更や SageMaker JumpStart でのファインチューニングを避け、プロンプトだけで要求を満たす方が圧倒的に速く、モデルに「パスポート番号などの PII を決して出力しないでください」と否定的に書き添えるだけで即効性があります。このアプローチは API 呼び出し回数やコストにも影響せず、既存の IAM ポリシーや Amazon CloudWatch ロギング設定をそのまま維持できるため、運用面でも追加タスクがほぼ発生しません。
思考の連鎖プロンプトやフューショット学習で誤答例と正答例を示す方法は、Titan Text が推論途中で意図せず PII を混入させるリスクを完全には排除できず、プロンプトが長くなる分だけ Bedrock 呼び出し料金も上がるため、PoC の条件である軽量かつ低コストという要件とやや噛み合いません。特に誤回答例に模擬パスポート番号を入れると、それ自体が機密取り扱いの議論を招き、コンプライアンスレビューが長引く恐れもあります。
最小工数での実装、出力品質、PII 抑制という複数要件を俯瞰すると、Amazon Bedrock のプロンプトにネガティブ指示を盛り込み Titan Text の従属性を活かして直接禁止事項を宣言する手法が、追加開発を伴わずコストと納期を両立できる最適解と総合判断できます。
この教材の改善リクエストがある場合は、お気軽にご報告ください。
カテゴリを選択のうえ、詳細をご記入いただけますと幸いです。
CloudTech(クラウドテック)は多くのユーザーの皆様から改善リクエストをご協力いただき運営できております。
あなたの視点での気づきは他の学習者の迷いを解決する手助けとなります。
運営側でもチェックをしておりますが限界があるため、誠に恐縮ではございますが細かい点でもご遠慮なくご指摘をお願いいたします。
※ 匿名での報告となり、内容は一般公開されません。
※ 技術的なご質問への回答を行うフォームではございませんのでご注意ください。
