38問中 0問が回答されています
質問:
You have already completed the テスト before. Hence you can not start it again.
問題を読み込んでいます…
You must sign in or sign up to start the テスト.
まず、次の操作を完了する必要があります:
正解数 0/問題数38
回答にかかった時間:
終了時間となりました
回答お疲れ様でした。
Earned Point(s): 0 of 0, (0)
0 Essay(s) Pending (Possible Point(s): 0)
【MLS-112】FinTech 企業は、1 日あたり JSON 形式 500 GB と CSV 形式 50 GB の取引データを Amazon S3 の s3://fin-raw/ に保存している。
ビジネスアナリストはサーバレスで運用したいが、
①平均 25 並列クエリ、
②クエリ開始遅延 5 秒以内、
③スキーマ変更を列単位で追従、
④ETL チームが同一データカタログを利用、
⑤クエリ実行分だけ課金、という要件がある。
最小の運用負荷とコストで要件を満たすアーキテクチャはどれか。
500 GB 超の JSON と CSV を Amazon S3 にそのまま置いた状態で平均 25 本のクエリを 5 秒以内に走らせたい場合、ノードを常時保持する Amazon EMR や Amazon Redshift などのプロビジョニング型より、DPU を秒単位で確保できる Amazon Athena の Capacity Reservation を選ぶと、アイドル時のコストを抑えつつ完全サーバレスでクエリごとの従量課金が可能になります。
列追加や型変更が頻繁な取引データを扱うなら、AWS Glue Data Catalog と Glue Crawler でメタデータを管理し、S3 のプレフィックスに日付パーティションを切る設計が効果的です。これによりビジネスアナリストの分析クエリと ETL チームのジョブが同一カタログを共有でき、スキャン量を減らしながらスキーマエボリューションも自動追従します。
S3 パーティション → Glue Data Catalog 登録 → Athena WorkGroup で 32 DPU 程度の Capacity Reservation を確保し、結果は別バケットへ出力する流れは、同時実行・起動遅延・スキーマ変化・共通カタログ・クエリ課金という複数の要件を総合的に満たすバランスの取れた判断となります。
【MLS-113】通信機器メーカーは年間 200 万通のサポートメールを自動仕分けしたい。
1 通のメールが「製品ライン」「障害種別」「優先度」の最大 3 つのラベルを同時に取る。
要件は誤検知率 5% 未満、推論レイテンシ p99 2 秒以内、ラベルは最大 30 種類に増加予定、モデルは月 1 回再学習と再デプロイ、運用負荷とコストは最小限にすること。
最適な実装はどれか。
1行に収まるフルマネージド型のヒントではありませんが、下記を参考にしてください。
1. 1通のメールに対して最大3つのラベルを同時に返すには、Amazon Comprehend カスタム分類器のマルチラベルモードが最も自然です。最大100ラベルまで一括で予測でき、エンドポイントのリアルタイム推論はp99でも秒単位の性能を実測で満たしやすい設計です。月次の再トレーニングもボタン操作やAPIで置換デプロイが自動化でき、インフラ管理を意識せずリクエスト課金で済むため日5千通規模の運用コストを抑えられます。
2. シングルラベルしか返せない手法を選ぶとメールを3分割して推論するか3回呼び出す必要が出てきます。呼び出し回数増加はAmazon ComprehendでもAmazon SageMakerでもp99レイテンシが最大3倍に伸びる可能性があり、本文を分割すると文脈が切れて誤検知率が高まりがちです。さらにラベルが30種類へ増えた際に呼び出し設計が複雑化し、運用コストと精度の両立が難しくなる点を頭に入れておきましょう。
3. 教師なしのトピックモデリングはラベルを固定したい場面に不向きで、自由度の高いAmazon SageMakerはハイパーパラメータ調整や再学習パイプラインの保守が発生します。ラベル増加への拡張性、p99二秒以内のレスポンス、月1回の再学習自動化、年間200万通処理のコスト効率という複数要件を俯瞰し、フルマネージドでマルチラベル分類を提供する選択肢が総合的に適切かどうかを判断してください。
【MLS-114】国内EC企業は、毎月50万件追加される日本語レビューを5分類し、1リクエスト当たり100 ms以内で推論したい。
教師データはS3に保存された「ラベル,本文」のCSV2列で提供される。
運用負荷を最小化しつつ、毎月の自動再学習とモデルバージョン更新を実現するアーキテクチャとして最も適切なものはどれか。
教師データが S3 にある「ラベル,本文」CSV という条件から考えると、追加の前処理やスキーマ定義を行わずに直接取り込めるマネージド機械学習が便利です。Amazon Comprehend のカスタム分類器は CSV 二列を指定するだけでトレーニングジョブを開始でき、データ準備やコンテナ管理を意識せずに済むため運用負荷が小さくなります。
モデルを毎月自動で再学習しつつ呼び出し側のコードを変更しない仕組みが欲しい場合、EventBridge で月次スケジュールを組み、学習完了イベントをトリガに最新バージョンへエイリアスを付与する方法が考えられます。Lambda は固定 ARN で ClassifyDocument API を呼ぶだけで最新モデルを利用できるため、更新運用を極力シンプルにできます。
1 リクエスト 100 ms 以内というレイテンシ要件では、コンテナ常駐型の SageMaker エンドポイントでも満たせますが、スケーリング設定やマルチ AZ 監視を含む運用コストが生じます。フルマネージドで同期推論を提供する Amazon Comprehend の HTTP API なら数十 ms 程度で応答する例が多く、エンドポイント管理が不要です。性能と運用の両面を総合して最適な構成を判断してください。
【MLS-115】新聞社は、Kinesis Data Firehose が 1 分ごとに約 3,000 件(1 時間最大 50,000 件)のツイートを JSON ファイルとして暗号化 S3 バケットに保存するストリーム基盤を運用している。
ネガティブ投稿が 1 分平均 500 件を超えた場合に即時 SNS 通知を受け取る必要がある。
追加の永続ストレージは設けず、運用負荷とコストを最小化しつつ Comprehend のデフォルト同時呼び出し制限内で要件を満たすアーキテクチャを選べ。
Amazon Comprehend には DetectSentiment、BatchDetectSentiment、StartSentimentDetectionJob の三種 API があり、初期状態の同時実行上限は 20 リクエストです。1 分間に 3,000 件を処理する場合でも 25 件バッチにまとめれば 120 回呼び出し=毎秒約 2 回で済み、余裕を持って制限内に収められるため、SQS や Step Functions など追加のキュー制御を使わずとも安定運用が可能になります。
追加ストレージを増やさずリアルタイムに集計したい場合は、S3 ObjectCreated イベントで AWS Lambda を起動し、JSON を読み込んで BatchDetectSentiment を呼び出し、得られたネガティブ件数を CloudWatch PutMetricData でカスタムメトリクス化し即座に SNS へアラーム通知させる流れが最小構成です。この構成では DynamoDB テーブル設計や Kinesis Data Analytics アプリの運用が不要で、費用も Lambda 実行時間と Comprehend API コールにほぼ限定されます。
要求は「追加永続ストレージなし」「運用負荷とコストの最小化」「1 分平均 500 件超のネガティブ投稿を即時検知」「Comprehend のデフォルト同時呼び出し枠を超えない」という複数条件が同時に存在します。S3 → Lambda → BatchDetectSentiment → CloudWatch アラーム → SNS という一直線のサーバーレス連携はこれらすべてを自然に満たすため、サービス数や管理対象を増やす案と比べ総合的に優れた選択となります。
【MLS-116】国内3000店舗の日次売上データ(50SKU/店、過去3年=約150万行)とプロモーション・祝日情報をAmazon S3に保存する小売企業がある。
ML専門家は不在だが、4時間以内に月次で再学習し翌90日分を予測したい。
予測結果はAmazon RedshiftにロードしてBIで可視化する必要がある。
運用保守負荷とインフラコストを最小化し、関連時系列やカレンダー特徴量を自動生成させる最適なアーキテクチャを選択せよ。
Amazon Forecast の AutoPredictor は S3 上の CSV をそのまま取り込み、プロモーション列を関連時系列、祝日や曜日をカレンダー特徴量として自動追加し、ハイパーパラメータも自動調整します。需要系列が約15万あってもマネージドでスケールし、API 一回で 90 日先までのバッチ予測と再学習を 4 時間以内に完了しやすいです。エンドポイント不要で S3 に結果を書き出せるので Redshift への COPY だけで連携でき、アイドルコストを抱えず運用タスクが最小化されます。
SageMaker DeepAR+ や独自モデルを用いる道もありますが、Glue でのワンホット化やハイパーパラメータ探索、Spot 中断対策スクリプトなどを自前で準備する必要があります。専門家が不在の環境ではコード保守や学習時間の安定確保が負担となりやすく、インスタンスを都度起動する方式ではジョブ待機時のコスト管理も課題になります。これらの追加作業を許容できるかが選択の分かれ目になります。
要件は「ML の知識が乏しくても」「祝日・販促を自動で特徴量化し」「4 時間以内に月次再学習して 90 日予測を生成」「結果を Redshift へ簡単連携」「運用とコストを最小化」の五点です。全体を俯瞰すると、フルマネージド予測サービスを中心に Glue ワークフローと S3-Redshift 連携を組み合わせる構成が、機能・運用・費用のバランス面で総合的に適合しやすいと判断できます。
【MLS-117】金融取引プラットフォームでは、1 秒あたり平均 1 万件・ピーク 2 万件の約定レコード (1 KB/件) を受信し、取引金額の外れ値を 5 秒以内に検知して即時アラートを発報する仕組みを求めている。
追加要件:
• データは単一リージョン内で処理/保存すること
• 運用担当者が ANSI-SQL で閾値変更やモデル評価を行えること
• 将来的なスループット増にも自動で対応し、コストを最小化すること
これらの要件をすべて満たすストリーミング異常検知基盤の構成として最も適切なものはどれか。
毎秒最大2万件・平均1万件という高スループットをロスなく受け取り、ミリ秒〜秒単位で後段に渡すには取り込み層が水平スケールし続けることが不可欠です。Amazon Kinesis Data Streams はオンデマンドモードでシャード数を自動調整し数十万件/秒まで伸ばせ、Amazon MSK に比べブローカー管理やパッチ適用が不要なため初期コストと運用負荷を大きく抑えられます。
5秒以内に外れ値を検知し運用担当者が ANSI-SQL だけでしきい値調整やモデル確認を行いたい場合、Kinesis Data Analytics for Apache Flink の Random Cut Forest SQL 関数が最短一桁秒でスコア計算でき、SQL から Amazon SNS などへ直接呼び出す UDF も使えるため追加コードなしでリアルタイム通知まで完結させられます。
スループット増減への自動追従、単一リージョン完結、低レイテンシ処理、即時アラート、SQL 運用、コスト最適化という複数要件を総合的に満たすには、取り込みを Kinesis Data Streams、処理を Kinesis Data Analytics for Apache Flink(Random Cut Forest)、通知を Amazon SNS で構成するサーバレスパイプラインが最も合理的で将来の拡張にも柔軟です。
【MLS-118】フィンテック企業 X は決済トランザクションを 1 秒あたり 5 万件(平均 2 KB)受信している。
異常値は発生後 5 秒以内に検出し、Exactly-once で圧縮・列指向フォーマットのまま S3 に保存し、即座に Athena からクエリ可能としたい。
追加開発と運用負荷を最小化しつつ要件を満たすリアルタイム異常検知パイプラインの構成として最も適切なのはどれか。
毎秒5万件・平均2KBという流量はおよそ100MB/sに相当します。この規模を途切れず取り込むにはシャードを水平追加できるKinesis Data StreamsやAmazon MSKなどが候補ですが、管理作業を減らすには自動スケールとメトリクス可視化が充実したフルマネージドサービスが望ましいです。レコード順序保持とExactly-once配送が揃うことで downstream へ安全に渡せる点も見逃せません。
異常を5秒以内に判定するにはバッチ処理ではなくストリーム解析が不可欠です。Kinesis Data Analytics for SQL Applications にはRandom Cut Forestが組み込まれており、数行のSQLを書くのみでレイテンシ数秒のリアルタイム異常検知が実現でき、Spark StreamingやAWS Lambdaで独自実装する場合に比べコード量と運用が大幅に軽くなります。オートスケーリングや高可用性もサービス側で担保してくれる点を評価しましょう。
検知後の全データをParquet+GZIPでS3にExactly-once配置しAthenaに即時公開すると、列指向の高速クエリとストレージ圧縮が同時に得られます。Kinesis Data Firehoseのデータ変換機能を使えばバッファ1分/128MBなどの設定だけで自動変換とパーティション付与が行え、CloudWatch Alarmsへメトリクスを送ってリアルタイム通知までサーバーレスで完結します。複数要件を俯瞰すると、ストリーム取込・異常検知・フォーマット変換・通知を一貫してマネージド連携できる構成が最も運用負荷を抑えながら要件を満たすと判断できます。
【MLS-119】会社Aは世界中の支店に設置したRTSP対応IPカメラ100台(平均8 Mbps、15 fps)からの映像を暗号化してAWSに取り込み、2 秒以内に顔認識を行い、既知人物が検出された場合は社内APIにJSONで通知したい。
全映像は30 日間解析可能な形で安価に保存し、運用は最小化したい。
高可用性を維持しつつAWSサービスクオータ内に収めること。
月額コストは現行オンプレシステム比で50%削減を目指す。
これらの要件を同時に満たす最も適切なストリーミング処理パイプライン構成はどれか。
RTSP をそのままクラウドへ届け、TLS で暗号化した状態を保ちつつマルチ AZ で冗長化してくれるマネージド取り込みサービスは Kinesis Video Streams だけです。汎用の Kinesis Data Streams や MediaLive では映像コンテナの再ラップやトランスコードが必要になり、100 台 × 8 Mbps で 2 秒以内という遅延要件を維持するには処理負荷と開発工数が急増します。Kinesis Video Streams の推奨 4 Mbps/ストリームを守ればサービスクオータ内で接続でき、追加申請や自前フェイルオーバー構成を用意しなくても高可用性を実現できる点が大きな差異となります。
リアルタイムに顔を検出するなら Amazon Rekognition Video のストリームプロセッサを Kinesis Video Streams に直結し、結果を Kinesis Data Streams→AWS Lambda のイベント駆動パイプラインで受け渡すと最短数百ミリ秒で JSON が生成できます。Glue バッチや S3 経由の非同期ジョブはキュー待ちやポーリングが発生しやすく、2 秒 SLA を超過しがちです。Lambda で整形したデータを API Gateway 経由で社内 API へ POST すればネットワーク越えも HTTPS で統一でき、フルマネージドの自動スケールにより運用負荷は最小化されます。
30 日間の映像保存は Kinesis Video Streams の HLS エクスポート機能で S3 に自動アーカイブし、ライフサイクルポリシーで 30 日後に削除または Glacier 移行すれば手離れ良く管理できます。S3 Standard-IA や Intelligent-Tiering を併用すればオンプレ比 50% 以上のコスト削減も現実的です。取り込みの容易さ、2 秒以内の推論レイテンシ、イベント通知の即時性、安価な長期保存、高可用性とサービスクォータの両立という複数条件を総合的に満たす構成かどうかを俯瞰して判断してみてください。
【MLS-120】国内通信キャリアは、月間50種のプロモーションを案内する問い合わせチャットボットを Amazon Lex V2 で運用している。
ユーザは「学割」「学割プラン」「学生プラン」など略称・俗称で発話するため、Slot campaignName の未充足による NLU エラー率が 15% に達している。
ピーク同時接続 500/秒、許容レイテンシ 200 ms 以内、追加コストと運用負荷は最小に抑えつつ発話認識精度を向上させたい。
最適な対策を選べ。
Amazon Lex V2 にはカスタムスロットタイプに値と言い換え語を登録できる同義語機能があり、ユーザが「学割」や「学生プラン」など多様な発話をしても自動で正規名称へ正規化されるため、追加の Lambda や Amazon Comprehend を使わずともスロット未充足を減らしつつレイテンシを数十ミリ秒に抑えられます。
スロットを AMAZON.AlphaNumeric にして正規表現判定を Lambda で行う方法もありますが、500 リクエスト毎秒のピークで毎回関数が呼ばれるとコールドスタートや同時実行の急増が起きやすく、200 ミリ秒以内の応答や「追加コスト最小」という条件を守るのが難しくなる点を意識してください。
Amazon Comprehend のカスタムエンティティや Amazon SageMaker の BERT モデルで高精度分類を行う案は柔軟性が高い一方、API Gateway や Lambda を経由するたびネットワークホップが増え推論エンドポイント費用も上乗せされるため、50 種程度のキャンペーン名だけなら Lex 標準機能で完結させた方がシンプルで効率的です。
複数要件を俯瞰すると、Lex 内蔵の同義語付きカスタムスロットは精度向上・低遅延・低コスト・低運用負荷のすべてを最もバランス良く満たす選択肢と判断できます。
【MLS-121】国内アパレル EC は月間 200 万ユーザ、平均同時接続 2,000、推論レイテンシ 50 ms 未満を要求している。
毎日 5,000 の新規 SKU が追加されるため、追加後 2 時間以内に推薦に反映し、運用は可能な限り自動化したい。
Amazon Personalize を利用して目標を達成する最適な運用方法はどれか。
推論を 50 ms 未満で返すには Amazon Personalize のキャンペーンが提供するリアルタイム推論エンドポイントの利用が前提になります。S3 へ書き出すバッチインファレンスは HTTP 応答を持たず数十ミリ秒以内で返すのが難しいため、Application Load Balancer 経由でキャンペーンを呼び出しオートスケールで同時接続 2,000 ユーザをさばく構成が現実的です。
毎日 5,000 SKU を追加して 2 時間以内に推薦へ反映するには S3 に置いたアイテム CSV を起点に CreateDatasetImportJob→CreateSolutionVersion→UpdateCampaign を連鎖実行し学習済みモデルを差し替える必要があります。EventBridge ルールで 1 時間ごとに Lambda や Step Functions を起動すれば、人手を介さず継続的に新データを吸収するフローが実装できます。
ユーザ行動は Kinesis Data Streams から Event Tracker へ流して PutEvents API で即時登録し、アイテムメタデータは Dataset Import で取り込み、モデル更新は定期ジョブで行う三層構成によりリアルタイム性・更新頻度・運用自動化を同時に満たせます。複数要件を俯瞰した総合判断としてこのワークフローが最も整合的です。
【MLS-122】国内EC事業者A社は会員300万・ピーク5 000同時接続のモバイルアプリで、1 000 req/s・平均50 ms以下の応答で商品レコメンドを提示したい。
USER_PERSONALIZATIONレシピで学習済ソリューションがあり、Itemsデータセットにはavailability属性がある。
在庫切れ商品(availability=0)をリアルタイムに除外しつつ再学習コストを抑えたい。
最適な実装はどれか。
モバイルアプリで 1 000 req/s・50 ms 以下という低レイテンシを目指す場合、Amazon Personalize のキャンペーンが提供する推論 API がもっともシンプルなリアルタイム手段です。キャンペーンは最大 1 000 TPS を公式にサポートしており、Elastic Load Balancing 等を挟まずともスケールが確保できますから、外部キャッシュに逃がすより応答速度面で有利になります。GetRecommendations エンドポイントは既存の USER_PERSONALIZATION モデルをオンライン推論に載せるだけで利用でき、追加のバッチ処理や S3 操作を経由しないため、ピークタイムでの同時接続 5 000 にも即応できます。
在庫切れを即時に外すなら、Items データセットに availability 属性を保持し、Amazon Personalize Filter で「INCLUDE Item.availability IN (1)」と宣言し filterArn を GetRecommendations に渡す方法が効きます。PutItems API で値を 0→1 に更新すると再学習なしでフィルタ判定が反映されるため、在庫変動に秒単位で追随でき、学習コストも solution version 生成の待ち時間も発生しません。キャンペーン側はモデルパラメータを変えずにリクエスト時点で動的に除外処理を行うので、推論精度を保ちながらレスポンスの安定性を損なわずに済みます。
要件を整理すると、リアルタイム性では Batch Inference や S3 配信より直結 API、レイテンシではアプリ側除外より Personalize 内部 Filter、コストでは頻繁な solution version 作成より PutItems 更新が有利です。Amazon Personalize キャンペーンと Filter を組み合わせれば 1 000 req/s で在庫を即反映させつつ 50 ms 以内の応答、加えて再学習費用の抑制という複数目標をバランス良く同時に達成できるとの総合判断になります。
【MLS-123】国内EC企業は商品レビューページに投稿された画像(JPEG)から文字列を抽出し、Aurora MySQL に即時反映するワークフローを 10 日以内に構築する予定です。
要件は次のとおりです。
①1 日 12 万枚、ピークは 1 秒間に 500 枚アップロード
②各画像の処理結果は 4 秒以内
③月額 1,000 USD 以内
④将来的に多言語 OCR を追加しても改修を最小化する。
運用負荷を最小にしつつ要件を満たすアーキテクチャとして最適なのはどれか。
S3 に届くバースト 1 秒 500 枚を滑らかに処理するには、まず SQS にキューイングしてスロットリングし、その後 Reserved Concurrency 500 の Lambda で平行実行すると効果的です。Lambda から Amazon Rekognition DetectText 同期 API を呼ぶ場合、Service Quotas で TPS を 500 まで事前申請しておけば 1 枚あたり数百 ms で応答し、SLA の 4 秒以内を十分にクリアできます。Aurora には VPC やプールを気にせず Aurora Data API で非同期書き込みが可能なため、ピーク処理と遅延の両立が容易になります。
10 日という短期開発と月額 1,000 USD 以内の両方を満たすには、サーバレス中心で初期構築を抑え、従量課金を活かす設計が鍵です。Amazon Rekognition DetectText の単価は 1,000 枚あたり約 1 USD なので 1 日 12 万枚でも月 2,000 USD 弱に収まり、Lambda・S3・SQS は無料枠や小額で済みます。コンテナを並べる AWS Batch+Fargate や Textract AnalyzeDocument の単価と比べるとコスト効率が高く、運用負荷もパッチ不要で小さくできるため、予算と期間の制約に適合しやすい構成になります。
将来の多言語 OCR 追加を視野に入れるなら、画像保管の S3、バッファリングの SQS、実行エンジンの Lambda を疎結合で組み、内部で呼ぶ OCR サービスのみを差し替えるパターンが適しています。Amazon Rekognition DetectText は既に多言語対応が進み API 変更無しで新言語を取り込めるうえ、必要に応じて Textract や Comprehend に乗り換える際も Lambda のコードを書き換えるだけで済みます。スケーラビリティ、コスト、運用、拡張性を総合的に見渡すと、完全マネージドのイベント駆動サーバレスアーキテクチャが要件を最もバランス良く満たすという判断に至ります。
【MLS-124】製造業の品質検査部門は、1 日あたり 100 万枚の高解像度画像を Amazon S3 に保管し、月次で分類モデルを再学習しています。
現場の Raspberry Pi-4(ARM64)に推論を配置し、ネットワークが断続的でも 50 ms 以内のレイテンシーを保証したい。
エッジ側のメモリは 512 MB に制限されており、運用負荷と通信コストを最小化する必要があります。
この要件を満たす最適なワークフローはどれか。
Raspberry Pi-4 の 512 MB メモリと 50 ms 以内の推論という厳しい制約を考えると、Amazon S3 に保管された 100 万枚の画像で Amazon SageMaker による月次トレーニングを実施した後、SageMaker Neo で ARM64 向けに量子化やグラフ最適化を行いモデルを数十 MB 以下に縮小しておくと、エッジ側での高速実行と省メモリを同時に達成しやすくなります。
現場ネットワークが断続的でも安定してモデルを配信するには、AWS IoT Greengrass の OTA デプロイ機能を用いて差分更新と自動再同期を行うと、SCP や手動コピーに比べ運用負荷を大幅に削減でき、推論リクエストもローカル完結となるため通信コストをほぼゼロに抑えられます。
Amazon SageMaker のパイプラインで月次バッチ学習、SageMaker Neo による ARM 最適化、そして AWS IoT Greengrass コンポーネントとしての継続配信を組み合わせれば、デバイスメモリ制限・レイテンシー保証・通信費削減・自動運用という複数要件を総合的にクリアできるワークフローになります。
【MLS-125】動画配信サービス企業は、月次で収集される4億行・500 GBのCSVログを用いて解約予測モデルを構築したい。
開発者は機械学習フレームワークの知識が乏しく、コードを書かずに高精度モデルを得て、P95=40 ms、毎秒500リクエストのリアルタイム推論エンドポイントを自動で本番反映したい。
データは暗号化されたS3バケットに保存されている。
社内ポリシーでKMS暗号化とタグ付けによる課金可視化が必須であり、モデルの毎月再学習を自動化できることが求められる。
運用負荷とコストを最小化しつつ、監査用に全学習成果物をバージョン管理する設計として最も適切なのはどれか。
CSV を Amazon S3 で KMS 暗号化したまま投入し、コードを書かずに特徴量エンジニアリングからハイパーパラメータ探索まで自動で行い最高評価モデルを提供できるフルマネージドな AutoML は Amazon SageMaker Autopilot であり、Glue や QuickSight ML Insights や Amazon Forecast はそれぞれ ETL や BI 可視化や時系列予測に特化していてオンライン分類推論の用途では要件を満たしにくいです。
毎秒 500 リクエストで P95 40 ms という SLA を達成するには専用のマネージド推論基盤が必要で、Amazon SageMaker エンドポイントはマルチ AZ オートスケーリングと Blue/Green デプロイが標準で使え、API Gateway を介さず低レイテンシを維持できる一方、ECS や Lambda で自前コンテナを運用するとスケールインターバルやコールドスタートにより遅延が増えやすい点が比較のポイントになります。
EventBridge のスケジュールで毎月 SageMaker Pipelines を再実行し、Model Registry でバージョン管理と承認フローを記録しつつ、エンドポイントへ段階的リリースを自動化すれば、KMS で暗号化された S3 入力とタグ付けによるコスト可視化を両立した状態で学習からデプロイまで人手を介さず回り、運用負荷と監査要件を同時に満たす設計になります。
【MLS-126】金融 SaaS 企業は Amazon SageMaker で XGBoost を使い、ml.m5.4xlarge スポット 2 台構成の再学習ジョブを毎日実行している。
監査部門の要件は
①学習終了から 10 分以内に最新モデルの SHAP 特徴量寄与度サンプルを S3 に自動保存する
②追加コストと運用工数を極力抑える、の 2 点である。
現状 Debugger は無効、外部 Processing ジョブの新設や手動運用は避けたい。
この要件を最も効率的に満たす実装方針はどれか。
監査部門が求める「学習終了から10分以内にSHAPをS3へ」という条件は、Amazon SageMaker Debugger の shap コレクションと組み込み ShapExplainer ルールを HookConfig に追加し save_interval を数分単位で指定すれば、外部ジョブや追加インスタンスを立てず既存 ml.m5 スポット上だけで自動実現できます。出力プレフィックスの設定も一括で行えるうえ、ランダムサブセット取得によりストレージも節約でき長期的なコストにも優しい方法です。
日次再学習のあとで Amazon SageMaker Clarify や Processing を起動して説明可能性レポートを生成する方法もありますが、これらは別途コンテナをプロビジョニングするため待ち時間とインスタンス利用料が発生し、10分以内の即時性や「運用工数を極力抑える」という方針と両立しづらいことを頭に置いておきましょう。
推論経路を使う Serverless Inference の Feature Attribution や独自 shap ライブラリの実装を検討する前に、要件を整理すると『学習ジョブ内で完結』『追加コストなし』『自動でS3に残す』の3点が鍵だと分かります。これらを同時に満たせるのは学習プロセスと密接に統合された SageMaker Debugger なので、複数要件を俯瞰し最小構成でゴールに届く選択肢を見極めてください。
【MLS-127】国内大手EC企業は、非公開商品画像10万枚を2週間でバウンディングボックス付きでラベリングしたい。
作業者50名は社内IdPで認証され、VPC内のみからHTTPS接続し、進捗はS3のマニフェストで日次更新する必要がある。
追加要件:
①S3外への画像転送禁止、
②作業者ごとに品質指標を収集、
③今後のトレーニングコストを最小化。
各画像につき平均4つのボックスを描画し、ピーク時の同時ラベリング要求は毎時3,600タスクに達する見込み。
1ラベルあたり0.02 USD以内に抑えることも条件である。
現行インフラは東京リージョンに限定する。
最適な設計はどれか。
10 万枚の画像に平均 4 つのバウンディングボックスを描く場合、時速 3,600 タスクを自動で分配し専用 UI まで提供できるマネージド仕組みは SageMaker Ground Truth だけです。組み込み Bounding Box タスクと Active Learning を併用すれば、機械学習予測で人手を減らして 1 ラベル 0.02 USD に収めやすく、成果物は自動で Amazon S3 に集約され、東京リージョン内のモデル再学習にも直結します。
画像を外部へ持ち出さない条件を守るには、SageMaker の VPC エンドポイントと Amazon S3 PrivateLink を組み合わせ、HTTPS 通信を VPC 内に閉じ込める設計が不可欠です。社内 IdP と連携できる AWS SSO と Amazon Cognito を使えば 50 名の作業者をプライベートワークフォースとして認証でき、Ground Truth は IAM ポリシーでバケット外転送を阻止しつつ進捗を S3 マニフェストへ日次更新し、ユーザーごとの品質メトリクスを CloudWatch に自動集計します。
セキュリティ(非公開画像の閉域処理と IdP 連携)、スケーラビリティ(3,600 タスク/時の同時操作)、コスト最適化(Active Learning とマネージド UI)、品質トラッキング(ワーカー別メトリクス)、運用簡素化(S3 マニフェスト自動更新)という複数要件を俯瞰すると、東京リージョンでフルマネージドに動く SageMaker Ground Truth のプライベートワークフォース構成が最も整合的であると判断できます。
【MLS-128】大手 EC 企業は商品画像アップロード時にリアルタイムでカテゴリ推定を行う新モデルを既存モデルと比較評価したい。
要件は次のとおり:
① 1 時間あたり最大 1 万枚、p95 レイテンシ 300 ms 未満
② 新旧モデルを 80:20 で同時配信し、CloudWatch の精度指標がしきい値を下回った場合は即座に 100% を旧モデルへ戻す
③ 運用負荷とコストを最小化する。
最適な設計はどれか。
1行目
1時間あたり1万枚、p95レイテンシ300msという数値は1秒あたり約3リクエストを即時処理するオンライン推論が前提です。Amazon SageMaker Batch Transformや非同期推論エンドポイントではSQSバッファや結果ファイル出力の遅延が数秒~分単位で発生しやすく、この厳しいSLAを満たしにくい点をまず押さえてください。リアルタイムエンドポイントにAuto Scalingを適用すれば最少インスタンス1台で待機し、急なバーストにも素早く追従できるためコストと性能のバランスを取りやすいです。
2行目
新旧モデルを同時に試すにはリクエスト単位で正確に80:20の割合を維持しつつ、CloudWatch Metricsで監視して精度がしきい値を下回れば秒単位で100:0へ戻す仕組みが重要です。Amazon SageMakerのプロダクションバリアントは1つのEndpoint内に複数モデルを登録しWeightだけで比率変更でき、UpdateEndpointWeightsAndCapacities APIにより即時ロールバックが可能です。SNSやStep FunctionsをCloudWatch Alarmのアクションに組み込めば完全自動化も容易です。
3行目
運用負荷とコスト最小化を考えると、ECS Fargate+ALBで個別にモデルを管理するとデプロイ・監視・スケール設定が二重化して複雑化します。S3イベントで起動したLambdaからSageMaker InvokeEndpointを呼び、単一エンドポイントに2バリアントを配置すればインフラを共有でき料金も圧縮できます。レイテンシ遵守、トラフィック分割、即時ロールバック、運用簡素化という複数要件を俯瞰すると、リアルタイムエンドポイント+プロダクションバリアント+CloudWatch連携が最も整合的な選択といえるでしょう。
【MLS-129】国内ECサイトを運営する企業のデータサイエンス部門は、週次で約10台の Amazon SageMaker ノートブックインスタンス(ml.t3.medium)を起動・停止して実験を行っています。
起動時には
①社内 PyPI サーバーからライブラリを自動インストールし、
②AWS Secrets Manager に格納した Git 認証トークンでプライベートリポジトリをクローンし、
③EBS を保持して停止中コストを最小化しつつ環境を再現できることが求められます。
セキュリティチームは IAM 最小権限と資格情報のハードコード禁止を厳守させたいと考えています。
最も運用負荷が低く、要件を満たす実装はどれですか。
Amazon SageMaker のノートブックには Lifecycle Configuration という仕組みがあり、on-create と on-start の二段階で bash スクリプトを自動実行できます。on-create で Conda や pip によるライブラリを一度だけ導入すれば、その内容はアタッチされた EBS ボリュームに永続化され、次回 ml.t3.medium を再起動しても即座に同じ環境が復元されるため、停止中のコストはストレージ課金のみで済み、運用が楽になります。
認証情報は IAM ロールと AWS Secrets Manager を組み合わせて動的に取得するのが推奨です。ノートブック起動時に on-start スクリプトから SecretsManager:GetSecretValue を実行して Git トークンを取り出し、そのまま環境変数として git clone すればハードコードは不要です。API で取得したトークンはセッション終了後自動的に期限切れにでき、最小権限とローテーション要件を同時に守れます。
毎週十数台の実験インスタンスを扱う場合、Image Builder で AMI を作り直したり Systems Manager Run Command を外部から叩く方法は、ジョブ管理やスナップショットの掃除など追加オーバーヘッドが増えがちです。SageMaker 専用機能に完結させれば CloudWatch Events や EC2 AMI 管理の複雑さを避けられ、要件である資格情報非埋め込み・自動セットアップ・停止中 EBS 保持を一つのテンプレートで満たせます。これらを総合すると標準機能を中心に据えたアプローチが最もシンプルで安全と判断できます。
【MLS-130】フィンテック企業 A 社は TensorFlow 2.13 で開発した独自 CUDA オペレーションを含むニューラルネットを学習し、99% のリクエストに対し 50 ms 以内で応答するリアルタイム推論 API を提供したい。
学習は A100 相当 GPU を 4 台用いた分散ジョブで行い、Managed Spot Training によりコストを 40% 削減したい。
さらに SageMaker Debugger で勾配爆発を検知し、学習環境と同一イメージでエンドポイントを自動スケールさせたい。
運用負荷を最小化しつつ要件を満たすアプローチとして最適なのはどれか。
独自 CUDA オペレーションを安定して利用するには、公式の SageMaker TensorFlow 2.13 コンテナをベースに Dockerfile で nvcc ビルドと ldconfig まで行ったカスタムイメージを作り、Amazon ECR に登録後に TensorFlow Estimator へ image_uri を渡すのが確実です。pip install だけでバイナリを落とす方法は cuDNN などの互換性問題で本番エンドポイントに差異が出るリスクが高まります。
A100 相当 GPU を 4 台用いる分散学習には ml.p4de.24xlarge と SageMaker Distributed Data Parallel の組み合わせが適しています。NCCL2 に最適化された AllReduce が自動設定され、Horovod を手動整備する必要がありません。Managed Spot Training を有効にすればスポット中断時のチェックポイント再投入もサービス側で完結し、オンデマンド比 40% 以上のコスト削減が現実的です。
リアルタイム推論で p99 50 ms を狙う場合、SageMaker リアルタイムエンドポイントを Auto Scaling ポリシー付きで使うと常駐 GPU インスタンスをリクエスト量に応じて水平伸縮でき、高レイテンシを防げます。学習時に使ったカスタムイメージをそのままデプロイすることでライブラリ差異がなくなり、SageMaker Debugger のフックも維持されるため運用保守がシンプルです。
複数の要件を俯瞰すると、カスタム Docker+ECR、Managed Spot Training と SageMaker Distributed Data Parallel、そして同一イメージでの Auto Scaling 付きリアルタイムエンドポイントを組み合わせた構成が性能・コスト・運用の全バランスを満たす一貫した解となります。
【MLS-131】金融系スタートアップは、970 GB の履歴取引データでトランスフォーマーモデルを学習している。
現在 ml.p4d.24xlarge をオンデマンドで連続 80 時間実行しているが、学習コストを 50 %以上削減するよう経営陣から要請された。
中断が発生しても失われる学習進捗は 15 分以内、総学習時間の増加は 10 % 以内に抑える必要がある。
社内にはインフラ専門要員が少なく、運用負荷は極小化したい。
この要件を最も満たすアプローチはどれか。
トレーニングコストを 50 %以上削減しながら ml.p4d.24xlarge の GPU 性能を活用したい場合、Amazon SageMaker の EnableManagedSpotTraining を true にしてマネージドスポットトレーニングを使うだけでオンデマンド比最大 90 %の割引が得られ、既存の Training ジョブ設定をほぼ変更せずに導入できるためインフラ要員が少なくても運用負荷を増やさずに済みます。
失われる進捗を 15 分以内に抑えるには、checkpoint_s3_uri を指定して /opt/ml/checkpoints へモデルやオプティマイザ状態を定期保存する Amazon SageMaker のチェックポイント機能が効果的で、Spot 中断時には自動で Amazon S3 に退避し復旧時に続きを読み込むため、CloudWatch Events や独自スクリプトを用意せずにスムーズに再開できます。
50 %超のコスト削減という財務要件、15 分以内のチェックポイントと総学習時間 10 %増以内という性能要件、インフラ専門要員が少ないという運用要件を俯瞰すると、SageMaker Managed Spot Training と自動チェックポイントの組み合わせが唯一すべてを同時に満たし、EC2 Spot Fleet や Processing ジョブなど他の選択肢はどこかで条件を取りこぼすことになります。
【MLS-132】小売企業の ML チームは 5 GB の商品画像を使った TensorFlow 2.13 モデルの試行錯誤を 1 台の Ubuntu + RTX A6000 ワークステーションで行い、完成後は同一コードで Amazon SageMaker の本番トレーニングへ拡張したい。
開発フェーズのコストと待ち時間を最小化するため、SageMaker Python SDK のローカルモードで Docker イメージを動かし、GPU も利用する必要がある。
最も適切な実装方法はどれか。
Amazon SageMaker には sagemaker.local.LocalSession を使って開発用ワークステーション上で Estimator.fit を実行できるローカルモードがあり、instance_type に ‘local’ または ‘local_gpu’ を指定するだけでクラウドと同じ Python SDK を利用できます。これによりネットワーク転送やジョブキュー待ちが発生せず、5 GB 程度の商品画像を即座にマウントして TensorBoard で進捗を可視化しながら高速にハイパーパラメータを試せるため、後で ml.p4d.24xlarge などマネージドインスタンスへ変更してもコード修正は最小限で済みます。
GPU をローカルモードで使う場合は Docker と NVIDIA Container Toolkit が導入されていることが必須です。SageMaker の公式 TensorFlow 2.13 トレーニングコンテナをベースに Dockerfile で追加ライブラリをインストールしてイメージをビルドし、ローカルにタグ付けしておけば ECR へ push しなくても SDK が自動検出します。これにより RTX A6000 の CUDA コアがコンテナ内から利用でき、/opt/ml/input や /opt/ml/model など SageMaker 規約のフォルダ構成も保持されるため、後から create_training_job を呼ぶ環境との差異が生じません。
開発コストを最小化したい、同一コードで本番の Amazon SageMaker トレーニングへ無停止で拡張したい、TensorFlow 2.13 と GPU を活用したいという複数の要件を並べて評価すると、ローカルモードで GPU 対応イメージを準備し LocalSession で学習を行う手法が最も条件の網羅性と移行の容易さを両立できる選択肢だと総合判断できます。
【MLS-133】国内EC企業A社は、1日1,000万件のログイン試行(ユーザID・IPアドレス・端末情報を含む)をAPI Gateway経由で受信する。
要件は以下の通り。
・200 ms以内に不審IPを検知しLambdaでブロック判定を返す
・新規IPが日次で20%増加するため、モデルを毎日03:00に増分学習し、運用中の推論エンドポイントを無停止で置換したい
・月次ML予算は3,000 USD以内、PIIはすべてVPC内にとどめること
この要件を最も効率よく満たすアーキテクチャはどれか。
1 日 1,000 万リクエストを 200 ms 以内に裁くには、API Gateway で受けたイベントを Lambda でハンドリングしつつ VPC 接続を張った Amazon SageMaker リアルタイムエンドポイントへ PrivateLink 越しに転送し、オートスケールと PII の閉じ込めを同時に満たしながらレイテンシを数十ミリ秒に抑え、さらに Lambda の自動スケールとプロビジョンドコンカレンシーでピーク時も 200 ms SLA を守れるようにするのが効果的です。
新規 IP が日次で 20% 増える状況では、S3 に蓄積したログをトリガに Amazon EventBridge から SageMaker Pipeline を 03:00 に自動起動し、Spot インスタンスを使った IP Insights の増分学習ジョブを実行して Model Registry へ登録し、そのまま Blue/Green デプロイでエンドポイントを無停止置換することで運用中のトラフィックを途切れさせず、Spot 割引により月 3,000 USD 以内の予算にも収まりやすくなります。
Amazon Kinesis Data Firehose と S3 の高スループット取り込み、EventBridge を軸とした SageMaker Pipeline、Model Registry の Blue/Green デプロイ、API Gateway→Lambda→VPC 内エンドポイントという低レイテンシ経路を組み合わせるアーキテクチャこそが、200 ms 応答・日次増分学習・PII 保護・月額 3,000 USD という複数要件を最もバランス良く満たす総合解として望ましいといえます。
【MLS-134】保険会社は、毎日 8,000 枚の請求書 PDF(平均 300 KB)から請求額と請求日を抽出し社内システムへ登録したい。
要件は次のとおり:
① 抽出項目に 90 % 未満の信頼度が含まれる場合は 24 時間以内に人間レビュアへ転送する。
② データは同一リージョンの S3 に SSE-KMS で暗号化する。
③ コード改修と運用負荷を最小化し、フルマネージドサービスのみを用いる。
④ 今後の取扱量増加に備え自動スケールする。
最も適切なアーキテクチャはどれか。
帳票 PDF から金額や日付を高精度にキー・バリュー抽出し、しきい値を下回った項目だけを自動で人へ回す仕組みは、Amazon Textract の StartDocumentAnalysis に HumanLoopConfig を与えて Amazon A2I のプライベートワークフォースへルーティングすることで、キュー管理や通知実装を行わずに、非同期で大量ファイルを処理しつつ 24 時間以内レビューという条件を満たせます。
抽出結果を保存する Amazon S3 バケットを SSE-KMS で暗号化し、信頼度が十分なレコードのみを AWS Lambda で Amazon DynamoDB へ書き込み、信用度不足は A2I 側で補完させる構成にすれば、キー管理、暗号化、ストレージ、データベース、スケーリングのすべてをフルマネージドに委ねつつ日次 8,000 枚規模から将来のトラフィック増まで運用負荷をほぼ増やさず対応できます。
この課題では抽出精度に応じた自動‐人手切替、SSE-KMS による暗号化、一切のサーバー運用不要、需要変動への自動スケールという四つの要件が同時に提示されているため、それぞれの要素をカバーする Amazon Textract と Amazon A2I、S3、Lambda、DynamoDB を組み合わせる案が、機能適合性、コスト効率、保守性を総合的に勘案した際に最も実現容易な判断となります。
【MLS-135】ある金融 SaaS 企業は、1 時間あたり 5,000 枚(平均 1.2 MB)の手書き混在請求書 PDF を自動処理するワークフローを計画している。
要件:
1) 文字抽出再現率 99 %以上
2) 明細行からベンダー SKU と契約番号をエンティティ化し JSON で返却
3) 呼び出しから 10 秒以内に結果取得用 URI をクライアントへ返し、完了後は S3 に成果物を配置
4) コストは 1 ドキュメント 0.05 USD 未満
最も費用対効果が高く要件を満たす実装はどれか。
手書きを含む請求書で明細行を正確に捉えるには、文字列だけを返す DetectDocumentText ではなく、FORMS+TABLES を指定した Amazon Textract StartDocumentAnalysis が適します。セル単位でテーブル構造が復元できるため SKU と数量の対応関係が保たれ、OCR の再現率も 99%に届きやすいです。非同期 API は数百ミリ秒で JobId を返し、ページ単価も約 0.015 USD と低く 0.05 USD のコスト制限に余裕が生まれます。
ベンダー SKU や契約番号のような固有フィールドは Amazon Comprehend の標準エンティティでは抽出対象外ですが、Custom Entities を選び少量の教師データを学習させればタグ付き JSON を生成できます。BatchDetectCustomEntities は非同期バッチ処理なので 5,000 枚規模でも高スループットを維持でき、100 文字 0.00075 USD 前後ときわめて安価です。EventBridge や Step Functions の後続タスクとして組み込めばシンプルに連携できます。
1 時間あたり 5,000 ジョブを捌くワークフローでは AWS Step Functions が並列実行・状態管理・リトライを肩代わりし、StartDocumentAnalysis の完了を Callback で受け取って即座に Comprehend を呼び出し、結果を Amazon S3 に配置します。クライアントへは JobId 由来の URI や事前署名 URL を 10 秒以内に返却でき、Textract と Comprehend の従量課金を合算しても 1 ドキュメントあたり約 0.04 USD に収まるため、性能・コスト・開発容易性の全要件を総合的に満たせる構成です。
【MLS-136】国内で医師向け e ラーニングを展開する企業は、日本語の医学講義動画を週 400 本(各 60 分、1.2 GB)収録し、ピークで同時に 50 本をアップロードする。
収録後 15 分以内に英語字幕を生成し、3,000 語の専門用語は訳文中に日本語を括弧付きで残し、誤字許容率は 1% 未満とする。
すべてマネージドサービスで自動スケールし、将来の用語追加は UI から反映できる構成が求められている。
最も適切なソリューションはどれか。
60 分・1.2 GB の日本語講義動画を同時に 50 本アップしても 15 分以内に文字起こしを終えるには、非同期バッチ処理で自動並列化される Amazon Transcribe が適しており、カスタム言語モデルやカスタム語彙リストに 3,000 語を登録しておけば誤字率を 1 % 未満に抑えられます。日本リージョンでサービス自体が水平拡張するためスロット確保やコンテナ増設などの設定も不要です。
生成された日本語テキストを英語に変換する際は Amazon Translate の Terminology 機能が強力で、登録済みの医学用語を「原語( )」の形で残しながら他の部分だけを自然に翻訳できます。CSV 用語集はマネジメントコンソールや API から差し替えるだけで即時反映され、UI 操作だけで将来の語彙追加という要件を満たせる点に注目してください。
「すべてマネージドで自動スケール」の条件を当てはめると、Transcribe Medical は日本語非対応、AWS Elemental MediaConvert の自動キャプションも対象外、SageMaker や Amazon EKS ではノード管理が必要となり運用負荷が増します。文字起こしは Amazon Transcribe、翻訳は Amazon Translate というシンプルな二段構成が、性能・保守性・将来拡張性を総合的に見たとき最も合理的です。
【MLS-137】医療系テレヘルス企業は、患者との通話を最長60分のストリーミングで200同時セッション録音し、2秒以内に文字起こしを表示したい。
専門用語や薬品名4,000語のCSVが毎週S3に配置される。
運用負荷を抑えて認識精度を最大化するため、最小限のコード変更で語彙を更新し、TranscribeストリームAPIで常に最新版を利用したい。
最も適切な実装はどれか。
週次で届く4,000語のCSVを最新状態に保つためには、Amazon S3にファイルがアップロードされた瞬間をトリガーに自動で処理する設計が運用を大幅に楽にします。S3のPUTイベントでAWS Lambdaを起動し、Amazon TranscribeのUpdateVocabulary APIを同一語彙名で呼び出せば公開済み辞書を上書き更新できます。通話アプリ側はStartStreamTranscriptionのVocabularyNameに固定名を渡し続けるだけなのでコードは触らずに済み、反映の遅延や手動ミスも防げます。
医療現場向けに専門用語を高精度で扱いたい場合、Amazon Transcribeのカスタム語彙は数千語程度の辞書を差し込むだけで効果が出せます。SageMakerで独自音響モデルを再学習したり、Amazon Lexに薬品名を登録して60分のストリームを処理したりする方法は設計が大きく変わり開発負荷も増しますが、VocabularyならAPI一発で済み、リアルタイム性と保守性の両立が容易です。
本シナリオでは1)60分連続音声のストリーミング録音、2)200並列セッションのスケール、3)2秒以内の文字起こし表示、4)週次4,000語更新、5)最小限のコード変更という複数要件が並びます。Amazon TranscribeストリーミングAPIでリアルタイム変換を担い、Amazon S3のイベントとAWS LambdaでUpdateVocabularyを自動実行する構成は、それぞれの制約を無理なく満たし、運用負荷・開発工数・精度向上を同時に実現できる総合的に最適なアプローチと言えるでしょう。
【MLS-138】多国籍 EC 企業では 12 言語で毎日約 50 万件(平均 200 文字)の商品レビューが投稿される。
PII を外部に出さず AWS 内で処理し、翌営業日 9:00 までに英語でのトピック分析結果を OpenSearch Dashboards に可視化する必要がある。
運用工数とコストを最小化し、AWS 推奨のサービス構成として最も適切なものを選択せよ。
一日 50 万件・約 1 億文字のテキストを扱うときは、Lambda から Amazon Translate の同期 API を数十万回呼ぶより、S3 にまとめたファイルを非同期バッチジョブで一括翻訳する方が同時実行制限を気にせず安価に済みます。ジョブ完了後に S3 に結果がまとまるため後続フローも単純化でき、夜間実行で翌朝 9:00 までの期限にも余裕を残せます。非同期モードはジョブ数課金なので文字数対コストも有利です。
トピック分析には SageMaker の組み込み NTM や LDA などバッチ学習アルゴリズムが適しており、短時間で終わる処理に常時起動エンドポイントを置くと無駄が増えます。Managed Spot Training を使えば中断許容のワークロードとして最大 90% まで料金を下げられ、GPU を要さない NTM なら CPU インスタンスでも十分高速です。ジョブ終了時に推論結果を S3 に自動保存できるため、そのまま OpenSearch へバルクロードするステップを組みやすい点もメリットです。
OpenSearch Dashboards に翌営業日 9:00 まで結果を可視化する要件だけなら、S3→SageMaker→S3→OpenSearch という夜間バッチパイプラインで翻訳・分析・インデックスを直列実行する構成が最小の運用とコストで済み、PII を AWS 内に閉じたまま処理できます。リアルタイムストリームや常時稼働サービスを排し、Spot バッチと一括インデックスを組み合わせる設計がスループット、コスト、運用容易性という複数要件を総合的に満たします。
【MLS-139】ある金融企業は機微データを Redshift から S3(KMS 暗号化)にエクスポートし、AWS Glue 開発エンドポイントで整形後、同一 VPC の Amazon SageMaker ノートブックから PySpark を用いて機械学習前処理を行う予定である。
ノートブックはパブリックアクセスを許可せず、最小権限を順守する必要がある。
SageMaker ノートブックが Glue 開発エンドポイントと該当 S3 バケットに安全にアクセスできる IAM ロール構成として最適なのはどれか。
機械学習前処理を Amazon SageMaker Notebook から PySpark で実行しつつ同一 VPC 内の AWS Glue 開発エンドポイントへアクセスさせる場合、IAM 信頼ポリシーに sagemaker.amazonaws.com と glue.amazonaws.com の両方を含めて単一ロールを想定利用者に限定すると、AssumeRole を挟む追加処理なく双方が認証でき、金融機関で求められる閉域網の一貫性とアイソレーションが保たれます。
権限ポリシーは AWSGlueServiceNotebookRole を基に、Amazon S3 の対象バケットと対応する AWS KMS キーに対する s3:GetObject、s3:PutObject、kms:Decrypt 程度を追加すれば十分で、Amazon ECR や CloudWatch への広範なアクセスは不要です。同じロールを SageMaker と Glue が共有すると権限が分散せず監査も一元化でき、最小権限の原則に合致します。
パブリックアクセス禁止、KMS 暗号化、VPC 内通信、サービス間連携という複数要件を俯瞰すると、SageMaker と Glue が共通 IAM ロールを採用し信頼ポリシーで双方を許可しつつ S3 と KMS への限定権限だけを付与する構成が、セキュリティと運用効率のバランスに最も優れています。
【MLS-140】製造業 A 社は、Arm64-Linux ゲートウェイ(4CPU・8 GB RAM)を各ラインに配置している。
1 秒当たり 1,000 件のセンサーデータから 50 MB の PyTorch 異常検知モデルで推論し、結果を 100 ms 以内に PLC へ返す必要がある。
インターネットは 1 日に数回、最長 1 時間断絶する。
モデルは月 1 回更新し、改ざん防止と通信コスト削減、運用自動化を優先したい。
この要件を満たす構成として最も適切なものはどれか。
センサから毎秒1000件を受け取り、100ms以内にPLCへ応答するという厳しいレイテンシ要件に対しては、インターネット越しにAmazon SageMakerエンドポイントへ毎回送信すると往復遅延と帯域が支障になります。Arm64ゲートウェイでPyTorchを実行できるAWS IoT Greengrass V2やSageMaker Edge Managerを考えてみましょう。これならネットワークが1時間途絶えても推論は続行できます。
50MBのモデルを月1回配布し改ざん防止もしたい場合、Amazon S3オブジェクトを署名付きURLや署名付きコンポーネントとして届け、デバイス側でハッシュ検証するAWS IoT Greengrass V2の署名機能が有効です。SageMaker Edge Managerはバージョン管理とOTA展開を自動化し、差分のみを転送するので通信コストを抑えつつ人手を介さず更新できます。
4CPU・8GBのArm64 LinuxではLambda zipのサイズ制限やコールドスタートが気になりますが、Greengrassコンポーネントなら50MBのPyTorchモデルも常駐実行できます。推論結果はGreengrass Stream ManagerがMQTTやOPC-UAに変換してPLCへ低遅延で渡せ、回線切断中はバッファリングも可能です。レイテンシ、オフライン耐性、改ざん防止、通信量、運用自動化の五面を俯瞰すると、エッジ推論を中心に据えたGreengrass V2+Edge Manager構成が最もバランス良く要件を満たすと判断できるでしょう。
【MLS-141】製造業A社は工場内200台のロボットにGreengrass v2コアを導入し、SageMakerで訓練済みResNetモデルによる画像分類をオフラインで実行している。
要件は
①新しいモデルバージョンがモデルレジストリに登録され次第、自動でロールバック付きの段階的デプロイを行う
②前処理用Pythonコードを同じエッジで動かし、将来の機能追加時に無停止で更新できる。
最も運用負荷が低く要件を満たすアーキテクチャはどれか。
Amazon EventBridge で SageMaker Model Registry に新しいバージョンが push された瞬間をトリガにし、CodePipeline と CodeDeploy を経由して Greengrass V2 コンポーネントをビルドすると、200 台のコアに対して割合指定のローリング展開と CloudWatch メトリクス閾値による自動ロールバックを同じ仕組みで済ませられ、運用に手を掛けずに済みます。
Greengrass V2 は Lambda や Docker だけでなく単なるモデルファイルもコンポーネントとして一元管理でき、依存関係グラフを使って前処理 Python コードと推論モデルを同時に更新してもエッジ側でホットスワップされるため、IoT Jobs のスクリプト配布や V1 の再プロビジョニングとは手間も停止時間も桁違いに少なくなります。
要件の自動検知・段階的配信・ロールバック・無停止前処理更新という複数条件を俯瞰すると、SageMaker Edge Manager 連携とコンポーネント依存解決を備え、CI/CD 系サービスとネイティブに統合できる Greengrass V2 ベースのパイプラインが最小構成で最大効果を発揮すると判断できます。
【MLS-142】国内通販企業は 500 名のオペレータが利用する Amazon Connect を稼働させている。
1 日平均 50,000 件の通話を自動文字起こしし、「返品」「返金」などのキーワードを含む不満通話を翌営業日までにスーパーバイザーへ通知したい。
PCI-DSS 準拠のためクレジットカード番号は保存前にマスクする必要があり、追加の ML パイプライン運用とコストは最小化したい。
最も効率的なアプローチはどれか。
Amazon Connect の Contact Lens を有効にすると、録音・文字起こし・センチメント分析・キーワード抽出・PII 自動マスキングまでがワンストップで動きます。保存前にクレジットカード番号が伏せ字化され、S3 へメタ情報付きで出力されるため、50,000 件/日でも追加の Lambda や Step Functions を組まずに PCI-DSS と翌営業日通知の両方を満たしつつ従量課金でスケールします。
Amazon Transcribe、Amazon Comprehend、Step Functions、Lambda を組み合わせてキーワード検出やセンチメントを走らせる方法もありますが、ジョブ管理・リトライ・権限設計・PII 置換ロジックの実装とテストが必要となり、通話数が多い環境では保守工数とコストが嵩みがちです。既存機能で目的が足りるか、フルマネージドと自作パイプラインのトレードオフを整理すると比較しやすくなります。
1 日 5 万件の音声を翌営業日までに分類してスーパーバイザーへ共有するには、スループット自動調整・イベント通知・メタデータ統合が重要です。Contact Lens は Connect のコンタクト ID と連携し、EventBridge でリアルタイム通知、Athena や QuickSight で容易に可視化できます。運用最小化、PCI-DSS 準拠、TCO 削減という複数要件を総合的に満たす選択肢を選びましょう。
【MLS-143】製造業A社は1日240億件(平均28万件/秒、ピーク50万件/秒)のセンサーデータをAWSにストリーミング送信している。
同社は次の要件を提示した。
1) 取り込みから30秒以内にダッシュボードへ最新値を反映する
2) 圧縮後1日3 TBとなる生データを90日間保存し、Glue Data Catalogでスキーマを管理しつつAthenaで遅延15秒以内にアドホックSQLを実行したい
3) 運用はフルマネージドサービスで統一し、スキーマ変更時のアプリ改修を最小化したい。
これらの条件を最も満たすデータ処理パイプラインの組み合わせはどれか。
ヒント①
秒間50万件にも及ぶセンサーストリームを30秒以内に可視化するには、高スループットでシャード水平分割が可能なKinesis Data Streamsで取り込み、SQLウィンドウ処理に強いKinesis Data Analyticsで集計し、Kinesis Data Firehoseが1秒/1MB間隔でAmazon OpenSearch Serviceへプッシュする流れが好相性です。Enhanced Fan-Outと2 MB/s/シャード帯域でピーク負荷も吸収でき、ダッシュボード側にはほぼリアルタイムで最新値が反映できます。
ヒント②
1日3 TB圧縮×90日という大容量を低コストに保管しつつ遅延15秒以内でSQLを流したい場合、FirehoseでParquetに変換しながらS3へ同時配信し、Glue Data Catalogを自動更新する構成が効きます。Athenaは列指向フォーマットとパーティションプルーニングで高速に走り、スキーマ追加時もDDLだけで済むのでアプリ改修は不要です。さらに同時配送機能でOpenSearch Serviceへも並行転送でき、二重実装やLambdaバッファの手間を省けます。
ヒント③
運用を全面的にマネージドに寄せるには、クラスタ管理が必要なEMRや大規模同時実行の調整が要るLambda連鎖を避け、Streams、Analytics、Firehose、OpenSearch Service、Glue、Athenaのサーバレス/自動スケール群で統一するのが安全です。Parquet + Glueの組み合わせは後方互換でスキーマ変更を吸収し、OpenSearchの動的マッピングと合わせて改修を最小化できます。リアルタイム可視化・長期保存・低運用の三条件を俯瞰すると、この一連のKinesis中心アーキテクチャが最もバランス良く要件を満たします。
【MLS-144】製造業 A 社は IoT センサーから毎秒 50,000 件の JSON データを受信している。
要件は次のとおり。
・30 秒以内にリアルタイムで異常スコアを算出しダッシュボードへ送信する
・生データとスコア付きデータを SSE-KMS で暗号化し 1 日 200 GB を S3 に保存する
・インフラは自動スケーリングし、運用とコード保守を最小化する
これらの要件を最も効率的に満たすアーキテクチャはどれか。
1. 1 秒あたり 5 万件を 30 秒以内に処理するにはバッファ型やバッチ型ではなく常時開いたストリーム基盤が適しており、Amazon Kinesis Data Streams のシャード自動スケールと同じパイプ上で SQL を流せる Kinesis Data Analytics の RANDOM_CUT_FOREST 関数を使えばコードを書かずに異常スコアを即時計算できます。ウィンドウを 30 秒未満に設定できるためダッシュボード連携も遅延がほぼなく、フルマネージドゆえジョブ運用負荷も抑えられます。
2. 処理後の生データとスコア付きデータを耐久性の高いストレージへ保存するには Kinesis Data Firehose が自動でバッファリング・再試行を実行し、SSE-KMS で暗号化したうえで Amazon S3 に書き込みます。動的パーティション機能を使えば日付などで自動的にプレフィックスが切られ、1 日 200 GB 程度のスループットもサービス側が最適バッチを選択するため設定は最小限で済み、Lambda などの追加コードも不要です。
3. 本シナリオの要件は「高スループット取り込み」「30 秒以内のリアルタイム推論」「SSE-KMS で暗号化された S3 永続化」「自動スケーリングと低運用」の四点を同時に満たすかが焦点です。Kinesis Data Streams+Kinesis Data Analytics+Kinesis Data Firehoseの連携はこれらをネイティブ機能でカバーし、CloudWatch で統合監視も可能です。一方、Athena や Glue、SageMaker Batch Transform はレイテンシや手動設定が残るため、総合的に見て完全マネージドのストリーム処理構成が最も効率的と判断できます。
【MLS-145】国際的な動画配信企業は、1 日あたり 1,000 本(各 60 分)のユーザー投稿動画を Amazon S3 に保存しています。
アップロード後 2 時間以内に (1) 動画内のブランドロゴと人物を検出してタグ付けし、(2) 多言語が混在する音声から自動で言語判定・文字起こしを行いキーフレーズを抽出し、(3) 生成したメタデータを Amazon OpenSearch Service に登録して検索できるようにする必要があります。
カスタムモデルのトレーニングは行わず、最小限の運用負荷とコストで実装したい場合、最も適切なソリューションはどれですか。
1 日 1,000 本の 60 分動画を 2 時間以内に処理するには、S3 への PUT トリガーで Kinesis Video Streams に流し込み、Rekognition Video の非同期ジョブを走らせる構成がスケーラブルです。Brand Recognition と Face Detection の API は追加学習不要でロゴや人物を高精度に抽出でき、長尺でもジョブ状態が API で監視できるため運用が楽になります。DetectLabels を 3600 枚分呼ぶよりコストが抑えられ、同時投入が増えてもサービス側が自動でスロットを調整してくれる点も大規模ワークロードに向いています。
音声側は Amazon Transcribe の Language Identification オプションを有効にするだけで多言語を自動判定しながらストリーミング文字起こしが行えます。生成された transcript を Amazon Comprehend DetectKeyPhrases に渡せばキーフレーズを即座に取得でき、両サービスともフルマネージドでモデル管理やパッチ適用が不要のため保守工数とコストを大幅に削減できます。追加で OSS ASR をホストしたりバッチ変換を待つ必要がないので、動画アップロードから完了までの SLA を短く確実に保てる点も重要です。
Rekognition と Transcribe の結果がそろったら AWS Step Functions でワークフローをオーケストレーションし、AWS Lambda で JSON を整形して Amazon OpenSearch Service にインデックスすれば即検索が可能です。Glue や Athena のバッチ、SageMaker や YOLO など自前モデルを挟む案は運用と費用が膨らみ、MediaConvert や Polly は本用途の機能を持たないため、全工程をストリーミング入力とマネージド AI サービスで完結させる構成が複数要件を俯瞰して最もバランスに優れています。
【MLS-146】医療画像解析 SaaS を提供する A 社は、毎時10 GBずつ追記され最終的に200 TB規模となる診断用 DICOM データをオンプレミスから AWS に送信している。
8 並列のハイパーパラメータ検索を 1 日 3 回実行するため、各トレーニングジョブが常に最新ファイルを POSIX 互換で共有し、事前コピーの待ち時間とストレージ重複コストを最小化する必要がある。
運用負荷を抑えながら要件を満たす設計として、最適なデータソース設定はどれか。
ハイパーパラメータ検索を 8 並列で回しながら常に最新 DICOM を同時読み書きするには、Amazon SageMaker が各コンテナにそのままマウントできる POSIX 互換の共有ストレージが欠かせません。Amazon EFS や Amazon FSx for Lustre は Linux の標準 API でアクセスでき、データを事前に S3 へ複製する待ち時間を省ける点が大きな利点です。特に EFS は容量無制限でスループットがデータ量に比例して伸び、数百 TB レベルでも管理が容易です。CloudWatch メトリクスで IOPS を確認し、Burst Credit が枯渇しないようスループットモードを調整すると安定します。
入力モードを選ぶときは SageMaker DataSource の File Mode と Pipe Mode の違いがポイントです。File Mode はコンテナ内に /opt/ml/input/data が FUSE 経由でマウントされるため POSIX が保持され、各ジョブがファイルを作成・更新しても他ノードから即座に可視化されます。一方 Pipe Mode は RecordIO をストリーミングする設計なので対象はオブジェクト化された S3 だけで、共有書き込みや in-place 更新は前提としていません。ストレージ重複やコピー時間を抑えたいときは File Mode と共有ファイルシステムの組み合わせが効果的です。
オンプレから毎時 10 GB を取り込み最終的に 200 TB 規模へ拡大するワークロード、コピー遅延と重複コストの回避、POSIX 互換での同時アクセス、運用工数最小化という複数条件を俯瞰すると、マネージドな共有ファイルシステムを SageMaker の File Mode で直接アタッチする設計が最も合理的だと総合判断できます。
【MLS-147】ある国内 EC 企業は ResNet-50 に基づく商品画像分類を Amazon SageMaker エンドポイント (ml.p3.2xlarge) で 24 時間稼働させている。
ピーク 200 req/s、平均推論レイテンシー 30 ms 未満が必須で、日中は 50 req/s まで低下する。
GPU 使用率は常時 10 % 未満で月 1,500 USD のコストが課題となっており、50 %以上の削減を目指す。
追加の学習工数は最小限に抑え、SageMaker 管理機能のみを利用する条件で、最も費用対効果の高い推論基盤はどれか。
現行の Amazon SageMaker エンドポイント ml.p3.2xlarge は性能に大きな余裕があり GPU が遊んでいます。推論用途なら CPU インスタンスに演算アクセラレータを後付けできる Elastic Inference が適しています。たとえば ml.c5.2xlarge と eia2.medium の組み合わせは 1 台で ResNet-50 を 150〜200 req/s さばけ、料金は p3 の数分の一です。ピーク超過時は Auto Scaling が台数を自動調整するためアイドル課金も抑えられます。
追加開発を最小に抑える要件では、既存モデルをそのままデプロイできるかが鍵になります。Inferentia を使う Neuron SDK はモデル再コンパイルやレイテンシー再検証が不可欠ですが、Elastic Inference は Amazon SageMaker コンテナの環境変数を設定するだけで有効化でき、学習やコード修正をほぼ伴わずに推論性能を底上げできる点が利点です。
1 秒 200 リクエスト・30 ms 未満という厳しい目標は、同時実行 10 に制限されるサーバーレスや高価な p4d を常時稼働させる方式ではコストと性能の両立が難しくなりがちです。Auto Scaling 付きの ml.c5 系 + Elastic Inference なら日中 1 台で 50 rps、ピーク時 3 台で 200 rps を処理し、月額試算は約 560 USD と現状比 50% 以上の削減が見込めるため、要件全体を俯瞰したとき総合的な妥当性が高いと判断できます。
【MLS-148】金融系スタートアップは、自己開発した時系列予測アルゴリズムを Amazon SageMaker で学習・推論させたい。
要件は次のとおり。
1) Dockerfile から毎回新バージョンのコンテナをビルドし、同一リージョンに保管すること
2) 学習ジョブは安全にイメージを取得し、モデル成果物 (約200 MB) をバージョン管理された S3 バケットへ保存すること
3) 学習は 1 日 10 回実行し、CI/CD の運用負荷は極小化すること
この要件を満たす構成として最も適切なものはどれか。
コンテナイメージをコミットごとに自動ビルドし同一リージョンに保存する仕組みとしては、CodeCommit で Dockerfile を管理し CodeBuild がビルドを起動、生成されたイメージを Amazon ECR に push する一連のパイプラインが最もシンプルです。ECR はリージョン内プライベートエンドポイントと IAM ポリシーで安全に制御でき、Docker Hub など外部への通信も不要なため金融ワークロードと相性が良く、タグで各バージョンを整然と残せます。また Serverless なサービスなので管理用サーバは不要です。
学習ジョブが出力する 200 MB 程度のモデル成果物を履歴付きで保管するなら、バージョニング有効化済みの Amazon S3 バケットが鉄板です。SageMaker の training フローでは IAM ロールに S3:PutObject と ECR:BatchGetImage を与えるだけで、イメージ取得と成果物保存が自動化され、EFS のように自前で世代管理スクリプトを組む手間が要りません。さらに S3 の Lifecycle ルールで古い世代を Glacier に移行すればコスト最適化も可能です。CloudTrail でアクセストレースも簡単に残せます。
1 日に 10 回の学習を無停止で繰り返しつつコンテナや成果物の世代を自動で整理したいなら、CodeCommit→CodeBuild→ECR でイメージを管理し、SageMaker が IAM ロールを通じて ECR から安全に pull、バージョニング有効な Amazon S3 に出力を保存する構成が、運用サーバ不要・権限制御一元化・リージョン内通信という三要件をすべて満たす総合的に合理的な選択になります。
【MLS-149】多言語(日本語/英語)のコールセンター録音(平均 5 分 WAV)が 1 日 1,000 件 Amazon S3 に保存される。
各通話終了後 15 分以内に感情スコア付きの文字起こしを JSON で Data Lake(S3)へ格納し、コード量と運用負荷を最小化しつつコストを抑えたい。
最適なアーキテクチャはどれか。
音声ファイルが S3 に到着したら即座にイベントで起動し、AWS Step Functions がオーケストレーションを担う構成を思い浮かべてください。非同期の Amazon Transcribe はタスクトークンで終了を待ち合わせでき、続く Amazon Translate で言語を統一し Amazon Comprehend DetectSentiment でスコアを得てもサーバーレス課金なので 1,000 件/日でもコストが膨らみにくく、15 分以内に出力を S3 へ書き戻せます。
Amazon Transcribe Call Analytics は現時点で日本語に非対応、CloudWatch Logs 経由で S3 へ運ぶ追加ステップも必要ですし、AWS Glue Python シェルはコンテナ立ち上げ分だけ処理開始が遅延します。Kinesis Data Firehose や Amazon Lex V2 を挟む案は用途や料金が増えて要件が複雑化しがちなので、イベント駆動・バッチ向けに最適化されたサービスの対応言語や起動時間を確認することが重要です。
1,000 件規模のバッチ処理では S3 イベント、AWS Step Functions、Amazon Transcribe、Amazon Translate、Amazon Comprehend を組み合わせた完全サーバーレスパイプラインがコード量と運用負荷を最小化しつつコストも抑えやすいと整理できます。処理時間、対応言語、課金モデルを横断的に比較し、総合判断の視点で締めくくること。
教材の改善ご提案やご指摘を承るフォームです。
この教材の改善リクエストがある場合は、お気軽にご報告ください。
カテゴリを選択のうえ、詳細をご記入いただけますと幸いです。
CloudTech(クラウドテック)は多くのユーザーの皆様から改善リクエストをご協力いただき運営できております。
あなたの視点での気づきは他の学習者の迷いを解決する手助けとなります。
運営側でもチェックをしておりますが限界があるため、誠に恐縮ではございますが細かい点でもご遠慮なくご指摘をお願いいたします。
※ 匿名での報告となり、内容は一般公開されません。
※ 技術的なご質問への回答を行うフォームではございませんのでご注意ください。
