31問中 0問が回答されています
質問:
You have already completed the テスト before. Hence you can not start it again.
問題を読み込んでいます…
You must sign in or sign up to start the テスト.
まず、次の操作を完了する必要があります:
正解数 0/問題数31
回答にかかった時間:
終了時間となりました
回答お疲れ様でした。
Earned Point(s): 0 of 0, (0)
0 Essay(s) Pending (Possible Point(s): 0)
【SAP-187】大手動画配信企業は Aurora MySQL v3 で構築したメタデータ API を Amazon EKS 上のマイクロサービス群から利用している。
セール時には読取:書込=7:1 で最大 5 万同時接続が発生する。
要件は次のとおり。
①平均応答 30 ms 未満、書込みレイテンシ 10 ms 未満
②RPO 0・RTO 30 秒
③接続先エンドポイントを変更せずにスケールアウト/フェイルオーバーさせる
④読取専用ノードは需要に応じて自動で水平スケールしコストを最適化する。
これらを最も効率的に満たすアーキテクチャはどれか。
30 日ごとにクレデンシャルを自動更新し、既存 2,000 コネクションを切らさず Aurora PostgreSQL へ継ぎ目なく切り替えるには、Secrets Manager の組み込みローテーションと Lambda テンプレートが有効です。AES-256 で KMS CMK による自動暗号化が標準対応し、キー権限を kms:GenerateDataKey など最小限に絞れるため、暗号化と権限の両要件を同時に満たせます。
EKS 側では Secrets Store CSI Driver が Pod 内ボリュームとしてシークレットをマウントし、ローテーション完了時にファイルを即座に差し替えてくれるので Pod 再起動や Blue/Green デプロイが不要です。IAM Roles for Service Accounts により各マイクロサービス単位で GetSecretValue の権限を限定でき、追加サーバや永続サイドカーを持たず最小構成を維持します。監査は CloudTrail と AWS Config で 90 日保持すれば容易に検索できます。
暗号化、ゼロダウンタイムの自動ローテーション、EKS への透過注入、90 日の操作記録、追加インフラなしというすべてのチェックリストを満たす組合せを俯瞰すると、Secrets Manager+KMS+Lambda+Secrets Store CSI Driver+CloudTrail の構成が最もシンプルかつ効率的な運用設計と判断できます。
【SAP-188】金融系 SaaS 企業は新リージョンにリアルタイムリスク計算基盤を構築する。
c6in 世代の計算ノード 200 台間で双方向合計 100 Gbps 以上の East-West トラフィックが発生し、レイテンシばらつきを 5 µs 以内に抑える必要がある。
ジョブは数秒単位で終了し、1 ラック障害時でも少なくとも 80 % の計算能力を維持したい。
コスト増を最小化しつつ運用負荷を抑えるため、AWS 管理機能を極力活用すること。
この要件を最も満たすインスタンス配置とネットワーク設定の組み合わせはどれか。
Amazon RDS for MySQL とネイティブ連携する AWS Secrets Manager のローテーションテンプレートを利用すれば、KMS で暗号化されたシークレットを Lambda が 30 日周期で自動更新し、EventBridge と SNS が失敗をリアルタイム通知し、ECS Fargate タスクは GetSecretValue で都度取得するだけなので 50 サービスでも追加運用なしに監査の①②を満たせます。
API 呼び出しを 7 年保持し改ざん対策を講じるなら、CloudTrail と AWS Config のデータイベントを S3 バケットに配信し、バージョニングと S3 Object Lock を有効化したうえでライフサイクルポリシーで 365 日後に Glacier Instant Retrieval へ階層化する構成が定石であり、保存コストを抑えながらも WORM 保管で完全性を担保し、復旧も RPO1時間内に行えます。
手動の run command を要する Systems Manager や自己運用が必要な HashiCorp Vault、設定の抜けが多い IAM データベース認証のみの構成は定常運用や監査証跡で追加作業が発生しがちであり、ローテーションと通知、KMS 暗号化、S3 への長期保管を全てマネージドで一括提供するサービス群を組み合わせた案が最小運用負荷の観点で総合的に優れています。
【SAP-189】金融取引解析 SaaS を提供する企業 A 社は、3 つの AZ にまたがる Amazon ECS on EC2 クラスター(同時 1,000 タスク)から機械学習モデルと入力データを共有する POSIX 互換ファイルストレージを設計している。
要件は次のとおり:
①合計 8 GiB/秒 以上の持続的スループット、
②メタデータ操作遅延は 10 ms 未満を許容、
③容量は 100 TB から無制限に自動拡張、
④AZ 障害時も RPO=0 で継続運用、
⑤追加運用負荷は最小化。
最も適切な実装はどれか。
DB の月次パッチに伴う停止を 30 秒未満に抑えるには、Amazon RDS Blue/Green Deployments で本番クローンにパッチ適用後ワンクリックでスイッチオーバーする方法が最適です。差分レプリケーションによりカットオーバーは数十秒で済み、フェイルバックも容易です。さらに AWS Backup の継続的バックアップとクロスリージョンコピー、ライフサイクル管理を有効化すれば、ポイントインタイム復元で RPO ゼロ、遠隔リージョン側の RTO 5 分という厳しい復旧目標をコードレスで実現でき、運用負荷を大幅に低減できます。
アプリケーションが PCI-DSS 対象データを扱う場合、AWS Secrets Manager にデータベース資格情報を保存し、カスタマー管理 KMS キーをワークロード単位で作成して 1 年毎の自動ローテーションを有効にすると鍵要件に合致します。EKS では IAM Roles for Service Accounts を設定し、Pod が起動時に API 経由でシークレットを動的取得することで、平文パスワードをコードや ConfigMap に残さずに済みます。鍵と認証情報の更新が完全自動化されるため、開発者体験を損なわずにコンプライアンスとセキュリティの両立が可能です。
全リソース変更を中央で継続監査し、非準拠設定を即時修復するには、AWS Config のマネージドルールやカスタムルールで評価基準を定義し、Amazon EventBridge をトリガーとして Systems Manager Automation を実行するパターンが有効です。例えば RDS の PubliclyAccessible を検知後に自動で false へ戻すよう設定すれば、人手を介さず是正できます。Blue/Green での無停止パッチ、Secrets Manager+KMS による動的シークレット管理、Config 連動の自動修復を組み合わせることで、可用性・セキュリティ・ガバナンスという複数要件を総合的に満たしながら運用コストを最小化できると判断できます。
【SAP-190】貴社は世界 4 リージョンで稼働するオンラインゲーム企業で、購入数に基づく「24 時間以内の人気アイテム TOP100」を REST API で毎秒 6 万回提供している。
現在は Aurora MySQL で ORDER BY 集計を実行しているため読み取り CPU が 85% を超え遅延も悪化している。
p99 30 ms 以下、RPO 0、RTO 30 s を維持しつつ読み取り負荷をオフロードし、アプリ改修は最小に留めたい。
最も適切なアーキテクチャはどれか。
Amazon Secrets ManagerはAurora MySQLとネイティブ統合され、数クリックで30日間隔の自動ローテーション用組込Lambdaが生成されます。ECS Fargateは起動時や接続更新時にAPIで動的取得でき、4段階ステップで旧・新パスワードを並行運用するため切替時の接続途切れは数百ミリ秒に収まり、保存料金とAPIコストも高負荷でも月200USD以内に収めやすいです。
Systems Manager Parameter Store標準版は自動ローテーション非対応で、Advanced Tierに切り替えると1パラメータ0.05USD/日の課金が発生します。CodeBuildなどで毎月手動回転しても300ms以内の無停止切替保証は難しく、ECSの環境変数に展開するとログやメモリダンプ経由で平文漏洩リスクが残ります。さらにSSM APIは秒間呼び出し制限があり、1,200TPSの取得ではレイテンシとスロットリングが懸念されます。
AWS ConfigのマネージドルールはIAMポリシーの過剰権限を10分程度で検出し、Systems Manager Automationと組み合わせることでDeletePolicyStatementなどを自動実行し15分以内に復旧できます。ConfigのコストはIAMリソース主体なら月数ドル規模で、Access Analyzerのレポート確認だけでは修復が手動となりSLAに届きません。
以上を踏まえると、資格情報の秘匿、30日ごとの無停止ローテーション、最小権限逸脱の自動修復、そして月200USD以内という複数要件を同時に満たせるのはSecrets ManagerとAWS Config+SSM Automationを組み合わせた構成であると総合的に考えられます。
【SAP-191】大規模 EC サイトを運営する企業は、ユーザーセッションを ElastiCache for Redis に保存している。
ピーク時は通常の 5 倍、最大同時接続 20 万件までスパイクし、読み書きレイテンシ 1 ms 未満と RPO 0/RTO 60 秒以内を求める。
夜間は負荷が 20% まで減少するため、使用量に応じたコスト最適化も必要である。
現行は t3.micro 単一ノード構成で可用性とスケールに課題があり、運用負荷は最小化したい。
要件を満たすキャッシュ層の構成として最も適切なものはどれか。
まず、Amazon RDS for PostgreSQL を EU 向けに運用する際の暗号鍵管理は AWS Key Management Service のカスタマー管理キーを紐付け、自動ローテーションを 1 年間隔で有効化しておけば、鍵発行・無効化・ポリシー更新の一連をサービス側で完結できます。Lambda や CloudWatch Events で手動処理を組むより構成がシンプルで変更点が少なく、監査時に「ローテーション手順が完全自動化されている」ことを示しやすい点が大きな利点です。
開発者が平文パスワードを扱わず 30 日ごとに認証情報を自動更新するには、Secrets Manager の RDS ローテーションテンプレートを採用し、GetSecretValue だけ許可した CodePipeline 実行ロールでビルド時にシークレットを動的取得するのが定石です。Parameter Store 標準は自動ローテーションを持たず CLI スクリプト運用が必要となり手間が増え、Data API や Config の通知だけでは更新そのものが自動化されないため、最小運用で条件を満たす選択肢として Secrets Manager が最もフィットします。
7 年の改ざん不可ログ保持には AWS CloudTrail を有効化し S3 と CloudWatch Logs へ連携、バージョニングとアクセスコントロールを設定して保存期間を 2555 日超にすれば GDPR の長期監査要件に対応できます。さらに RDS マルチ AZ では計画メンテナンス時にフェイルオーバーが自動実行され 5 分以内に復旧可能なため、Secrets Manager・KMS・CloudTrail を組み合わせる構成が複数要件を俯瞰した総合判断として運用負荷とコンプライアンスを両立させます。
【SAP-192】広告素材の 3D レンダリング基盤を持つ B 社は、Windows ベースの SMB 共有に 6 TiB の静的アセットを格納している。
ピーク時には 1,200 クライアントが同時接続し、総スループットは最低 350 MB/秒、p95 レイテンシは 1 ms 未満が必須である。
データが論理削除された場合、RPO 30 分・RTO 15 分以内に別 AZ へ同等性能で復旧する必要がある。
運用負荷とコストを最小化しつつ、AWS の最新ベストプラクティスに沿った構成を選択せよ。
Secrets Manager には RDS 用のビルトインローテーション Lambda があり、30・60・90 日など柔軟に設定できます。EKS/Fargate 側は IRSA を使い GetSecretValue だけ許可した IAM ロールをポッドに付与し、KMS で暗号化されたシークレットを API 経由で取得することで平文保存を回避できます。各アカウントにこの構成を展開すればネットワーク経路が短く高可用性で運用できる点も比較材料になります。
組織管理アカウントに Secrets Manager を集中配置し、リソースベースポリシーで子アカウントの IRSA ロールや Lambda へ cross-account でアクセスを許可する構成もあります。これならシークレット生成・ローテーション・監査を 1 箇所に統合でき、CloudTrail 組織ストリームを 7 年保管する KMS 暗号化 S3 バケットも併せて集中管理可能です。さらに AWS Config Organization ルールと SSM Automation の自動修復を組み合わせれば、ローテーション停止や無効化を検出後 15 分以内に再有効化できます。
PCI-DSS、90 日以内ローテーション、最小権限、7 年監査、15 分自動修復、運用コスト最小化という複数要件を俯瞰すると、Secrets Manager と CloudTrail を標準機能で活用した上で AWS Config と SSM Automation による継続的ガバナンスを加え、分散配置と集中配置を補完的に採用する案が総合的に最も適合度が高いと判断できます。
【SAP-193】広告配信 SaaS 企業は Amazon RDS for MySQL (db.r6g.xlarge、ストレージ 2 TiB、マルチ AZ) を使用し、書込み 2,000 TPS/読取り 18,000 TPS、同時接続 5,000 を処理している。
読取り待ちが急増し、経営層は次を要件とした。
①3 か月以内に読取り性能を 4 倍へ拡張、
②DB 障害時 RTO 15 分・RPO 5 分、
③アプリ修正は JDBC 接続文字列変更程度、
④月間コスト増は 50% 以内。
最も適切な対策はどれか。
PCI-DSSの頻繁なパスワード変更を停止時間なしで回すには、Secrets Managerの自動ローテーション機能とAurora PostgreSQLの統合を利用し、更新処理をLambdaで実行して新旧クレデンシャルを重複許可させる方法が有効です。ECS Fargate側はTask Roleを使って起動時や接続前にGetSecretValue APIで最新値を引き、環境変数にハードコードしないことでタスク再展開を不要にできます。Parameter Store標準版やAMI埋め込みは自動回転や即時反映が難しく、Cron同期ではキー管理が複雑になります。
監査証跡を7年保管しインシデント時に素早く全文検索するには、CloudTrailを組織単位で有効化しKMS暗号化付きS3バケットへ配信、さらにLake Formationでカタログ化してAthenaを使う構成が現実的です。S3バケットはObject LockをGovernedモードで設定すれば消去防止となりPCI-DSS要件にも合致します。CloudWatch Logs保持や外部SIEM90日保管では長期間の検索性能やコストが課題となりやすく、EFSファイル保存はメタデータ解析に不向きです。
RTO15分・RPO5分、かつ平日日中に人が操作しない体制を取るには、AuroraマルチAZと自動バックアップ、ECSサービスのヘルスチェックローリング更新、そしてAWS ConfigルールやEventBridgeでドリフトを検知し自動修復する仕組みを組み込むことが肝要です。IAMポリシーによりSecrets ManagerとCloudTrailへのアクセスを限定し最小権限を確保しつつ、Lambdaで自動処理を走らせると復旧に手を介さず15分以内で済みます。手動パラメータ更新やオンプレSIEM転送は復元時間と作業負荷を押し上げる恐れがあります。
以上のように、Secrets Manager+Lambdaによる資格情報の即時ローテーション、CloudTrailとLake Formationでの長期監査、一連のマネージドサービスとAWS Configによる自動復旧を組み合わせる案が、最小権限を守りつつPCI-DSSとRTO/RPOを同時に満たす最適解といえます。
【SAP-194】オンラインゲーム会社 Gamelia は、Amazon Redshift RA3.4xlarge 8 ノードクラスターで 1 日 2 TB のユーザー行動ログを取り込み、Tableau でリアルタイム分析を提供している。
通常は同時実行クエリ数 10 件、CPU 使用率 30 % 未満だが、ゲーム内イベント開始直後は 15 分間に最大 250 件のダッシュボードクエリが集中し、現在は WLM 待ち時間が最長 3 分に達している。
ダッシュボードの応答時間を常に 5 秒以内とし、平常時コストを増やさず、管理作業も極力抑えるアーキテクチャとして最適なものはどれか。
【SAP-195】グローバル展開するニュースサイトは、記事画像と HTML を静的に Amazon S3 でホストしている。
現在は東京リージョンの単一バケットの S3 静的ウェブサイトエンドポイントを Apex ドメインに CNAME で直接関連付けて配信しているため、北米・欧州ユーザの 95 パーセンタイル遅延が 250 ms まで悪化し、リージョン障害時には最大 20 分の停止が発生する。
追加要件は次の通り。
• 95 パーセンタイル遅延を 120 ms 未満へ短縮
• 月間下り 5 TB、同時接続 20,000 を想定しコストを最小化
• 東京リージョンが完全停止しても 5 分以内に自動フェイルオーバー
• Apex ドメイン (example.com) で HTTPS を使用し、証明書運用負荷を極小化
これらの要件を最も満たすアーキテクチャはどれか。
PCI-DSS では保管時暗号化と定期ローテーションが必須ですが、AWS Secrets Manager は KMS による自動暗号化と Lambda ベースのローテーション機能を標準で備えています。Aurora MySQL のユーザー名・パスワードもテンプレートを用いて 30 日周期で無停止更新でき、バージョニングにより旧認証情報も安全に管理できるため、FinTech の高頻度デプロイでも追加運用をほぼ意識せずに要件 1 と 4 を同時に満たしやすいです。
EKS の Pod だけにアクセスを限定したい場合は IAM Roles for Service Accounts(IRSA)が鍵です。ServiceAccount にアタッチした IAM ロールに Secrets Manager の GetSecretValue 権限だけを最小スコープで付与し、ノードロールや IAM ユーザーには許可を与えなければ、AWS Identity Center や他サービス経由のリクエストは IAM ポリシー評価で拒否されます。これにより要件 2 を Kubernetes 側の変更なしで実装でき、CI/CD の頻繁なデプロイにも影響を与えません。
ローテーションの無効化や失敗を 1 時間以内に検知するには AWS Config のマネージドルール secretsmanager-rotation-enabled を有効化し、違反イベントを Amazon EventBridge で捕捉して SNS に通知する構成がシンプルです。Config が継続的にルールの状態を監査し、EventBridge がルール違反直後にメッセージを発行するため、CloudWatch メトリクスを自前で作るより運用負荷が低く、暗号化・権限制御・監査という複数要件を統合的にカバーできます。
【SAP-196】ゲーム開発会社はグローバル配信中のモバイルアプリ向けスコア送信 API を AWS で運用している。
要件は
①ピーク 5 万 rps、99 パーセンタイル往復遅延 40 ms 未満、
②書込み失敗時はクライアント側で 1 回のみリトライ、
③運用担当 2 名のためサーバーレスで管理負荷を最小化、
④費用は遅延改善の範囲で最小とする。
現行構成は Amazon API Gateway REST API → Lambda (Python) → DynamoDB (オンデマンド)。
しかしコールドスタートと同時実行数制限で遅延が SLA を超過している。
最も要件を満たす新アーキテクチャの推奨はどれか。
動的レスポンスをキャッシュせず全球で 50 ms 未満を保証するには、計算リソースそのものをユーザー近傍へ複製するのが最短経路です。既存の EC2 Auto Scaling+ALB 構成を追加リージョンへコピーし、Global Accelerator の Anycast IP で最寄りリージョンへ L4 転送させると、DNS ラウンドを待たずに遅延が大幅低減し、内蔵ヘルスチェックで障害時も数分以内に自動切替できます。さらに c6g.large を使い回せるため平均 CPU 60% のコスト枠にも収まりやすい点を意識しましょう。
Route 53 のラテンシーベースルーティングは、複数リージョンに展開した ALB を対象に最も往復遅延の小さいエンドポイントを DNS 応答で返します。ヘルスチェックを併用すれば異常リージョンは除外され、数十秒で健全な拠点へ誘導可能です。同一コードと EC2 インスタンスをコピーするだけなので開発工数は最小で済み、既存運用と同じ台数調整アルゴリズムを活用して平均 CPU やコストの条件も満たせます。
CloudFront でキャッシュを無効化したり大型インスタンスへ換装したりしても、根本の物理距離を越えない限り欧州・アジアの 120 ms は縮まりませんし、API Gateway のリージョナルエンドポイントも単一リージョンに留まります。ユーザー近接配置とレイヤ 4/7 ルーティングを両立できる複数リージョン展開こそ、レイテンシ目標、5 分以内の復旧、既存コスト維持という複数要件を総合的にバランスできる選択肢だと俯瞰して判断してください。
【SAP-197】モバイルゲーム会社A社は、世界20地域のプレイヤー5万台のクライアントへゲーム内ランキングの変動をリアルタイム (<100 ms p50) で通知したい。
サーバ側では更新イベントが秒間最大3,000件発生し、各イベントを全クライアントへ配信する。
要件は
①WebSocket接続の水平スケーリングを自動化し運用負荷を最小化する、
②GraphQL APIで取得・購読を統一しオフライン端末にはデルタ同期で追随させる、
③ユーザ認証はAzure ADとフェデレーションしたAmazon Cognito User Poolを用い、マルチリージョンDR (RPO 1 分、RTO 5 分) を確保する、
④コストを抑えるため接続維持サーバや自己実装のブローカーを置かない。
これらを満たすソリューションはどれか。
遠隔地ユーザーの読取レイテンシーはネットワーク往復が支配的で、Tokyo に集中した Amazon Aurora MySQL に接続させ続けても緩和しません、Aurora Global Database を有効にすると us-west-2 や eu-central-1 に読み取り専用セカンダリクラスターを数分で作成でき、専用高速通信で 1 秒未満の非同期複製が行われるので RPO 5 秒、RTO 1 分を満たしたまま北米・欧州のクライアントは地理的に近いリーダーから 200 ms 未満で SELECT を取得できます。
クライアントの接続先を増やす際にコード改修を最小化したい場合、AWS Global Accelerator を ALB の前段に置きレイテンシー基準ルーティングを有効化すると、単一の Anycast IP へ送るだけでユーザーは自動的に最寄りリージョンの Aurora リーダーに TCP が誘導され、書き込みリクエストは同じ接続経路で東京プライマリへフォワードできるためアプリ側のエンドポイント修正や DNS 伝搬待ちが不要になり、フェイルオーバー時の切替時間も短縮できます。
読取専用レプリカを東京に大量追加しても北米・欧州からの RTT は変わらずコストがインスタンス台数に比例し 30% を超えがちで、ElastiCache for Redis を単一シャードで国際展開すると TTL やキャッシュミス時の一貫性が KPI を揺らす恐れがあります、Aurora から RDS MySQL へ移行するとライセンスと機能差異が生じ本番切替リスクも増すため、月額コストを抑えて高可用かつ最小変更でグローバル読取性能を改善するにはクロスリージョン読み取り専用クラスターと Global Accelerator を組み合わせる方法が総合的に最適解となります。
【SAP-198】金融SaaS企業は、顧客から営業終了後1時間以内に配信される日次取引CSV(平均200 GB、50ファイル、パイプ区切り)をS3 landingバケットで受信している。
要件は
①RPO15分、
②分析担当者は不可逆マスク済みデータのみRedshiftから参照可能、
③サーバーレスで運用自動化、
④列追加などスキーマ変化を自動検知、
⑤コスト最小である。
既存のGlue Data Catalogには他サービスのテーブルも存在するため、更新競合を回避することが望ましい。
個人番号はSHA-256でハッシュし、それ以外のPII列はGlue DataBrewの動的マスキングテンプレートで伏せ字化する必要がある。
ジョブ完了後はマスク済みデータをS3 curatedバケットに上書きし、Redshift Spectrumから即時クエリできる状態にする必要がある。
これらを満たすアーキテクチャはどれか。
欧州に単一の writer を置いたまま東京やシンガポール側で p95 100 ms 未満を実現するには、距離よりもリージョン内に読み取り専用クラスターを設けるのが有効です。Amazon Aurora MySQL の Global Database は最大 5 リージョンへ 1 秒未満ラグで非同期複製し、各リージョンで専用 reader を配置できるため、APAC のクライアントは近接ネットワーク経由で高速にレスポンスが得られます。ドライバー設定を切り替えるだけで済み、アプリ改修を最小化しつつ一貫した書き込みポイントを保てる点も利点です。
RPO 5 分・RTO 5 分という復旧要件には、フェイルオーバーが自動化されている仕組みが欠かせません。Aurora Global Database はリージョン障害時に約 1 分でリーダークラスターを新しい writer に昇格可能で、RDS コンソールや CLI からワンクリックで実行できます。さらに AWS Global Accelerator を併用すればエニーキャスト IP により DNS TTL を待たずに最寄りエンドポイントへ瞬時に転送されるため、クライアント側設定をほぼ触らずに可用性と低遅延を両立できます。
APAC トラフィックが今後倍増しても、db.r6g 系リーダーの Auto Scaling を東京クラスターに追加することで 5 000 req/s・2 GBps 以上へ水平拡張可能です。リーダーは非同期複製なので追加コストは読み取り分だけに抑えられ、CloudFront や DynamoDB へのアーキテクチャ変更も不要。低レイテンシ読取、単一の整合性ある書き込み、短時間復旧、運用負荷軽減といった複数要件を俯瞰すると、この構成が最もバランス良く条件を満たすと判断できます。
【SAP-199】動画配信スタートアップ A 社は us-east-1 の EC2 で稼働するコンテナ化 Web アプリを 190 か国に提供している。
ライブ配信時には通常の 10 倍、最大 2 000 並列接続が 5 分以内に発生する。
要件は次のとおり。
・世界 95 パーセンタイル応答時間 < 100 ms
・リージョン障害時 RPO 5 秒、RTO 30 分
・静的サムネイルはアップロード後 15 分以内に ap-northeast-1 へ複製し、ユーザー最寄りから配信
・運用工数とコストを最小化
これらの要件を同時に満たすアーキテクチャとして最も適切なものはどれか。
動的 HTTPS の API はキャッシュが効かないため CloudFront を前段に置いて TTL を 0 秒にしても、エッジから毎回オリジンの ALB へ TLS 接続が張られるだけで往復遅延は大きく減りません。ヘッダー全転送は識別子が増えて料金が跳ね上がる恐れもあり、キャッシュ型よりネットワーク経路を短縮するサービスを検討するほうが効果的です。
DNS ベースの分散は Route 53 の TTL や端末キャッシュの影響で切替に数分かかる場合があります。Anycast IP を持つ AWS Global Accelerator なら名前解決を変えずに最寄りエッジへ転送し、既存 us-east-1 の ALB をエンドポイント登録するだけでコード改修もデータ複製も不要です。RTO 15 分を維持しつつ 95 パーセンタイルを 50 ms 未満に近づけやすい点も強みです。
APAC に新たな EC2 Auto Scaling 環境を複製したり c5n.2xlarge へ増強するとインスタンス費用が 20 %を超える可能性が高く、国際回線の遅延自体は解決しません。AWS Global Accelerator は転送量中心課金で月額増加を抑えつつ Anycast 経由でレイテンシを大幅低減できるため、性能・コスト・運用負荷の複数要件を俯瞰した総合判断では最も適したアプローチと言えるでしょう。
【SAP-200】グローバルに動画を配信する企業 A 社は、既存 https://www.example.com を維持しつつ、新たに取得した 20 種類のブランドドメインをすべて HTTPS/HTTP-2 で公開し、95 パーセンタイル遅延 100 ms 未満で www.example.com へ 301 リダイレクトしたい。
世界中から平均 5 万 RPS、可用性 99.9% 以上、新規ドメイン追加時の停止時間 0 が求められる。
運用負荷とコストを最小化し、証明書更新を一元管理できるアーキテクチャとして最も適切なものはどれか。
WebSocket を含む既存 HTTPS を改修せず北米・欧州の待ち時間を縮めるには、利用者から最寄りの AWS エッジへすばやく引き込み、その後はグローバルバックボーンで東京など複数リージョンの ALB へ転送する仕組みが効果的です。AWS Global Accelerator は静的 Anycast IP を提供し、ALB や Auto Scaling EC2 をそのままエンドポイント登録できるため、DNS 名やアプリ変更を最小に抑えつつ 1 か月以内で展開しやすい特徴があります。
Route 53 のジオロケーション振り分けや Amazon CloudFront を経由する方法では、DNS TTL 伝播遅延や WebSocket のキャッシュ非対応、各リージョンの手動運用などが発生し、RTO 1 分以内と運用負荷最小という条件を満たしにくくなります。Global Accelerator は自動ヘルスチェックでエンドポイント障害を秒単位で切り替え、TCP パスを最適化することで p90 レイテンシを大幅に短縮できます。
インスタンス数を大幅に増やすスケールアップはスループット向上には寄与しても物理距離による往復遅延を解消できず、コストが急増します。一方 Global Accelerator の課金は帯域とエンドポイント数が中心で、現在の 100 台構成を維持しながら追加コストを 20% 以内に収められる可能性が高いことから、低遅延・高可用性・早期導入という複数要件を俯瞰した総合判断で最も適合します。
【SAP-201】グローバル展開する動画配信企業は、1 オブジェクトあたり最大30 MBの静的コンテンツを S3(OAI) で配信しつつ、/api/* 配下のメタデータ要求を API Gateway(リージョナル) に転送したい。
API Gateway は内部的に /prod/* パスを期待するが、運用負荷軽減のため Lambda@Edge や EC2 を追加せずに p95 ≦ 60 ms を維持する必要がある。
静的コンテンツは 24 時間、API 応答は 30 秒キャッシュし、オリジン保護も継続したい。
最も適切な構成はどれか。
Amazon CloudFrontをS3オリジンの前段に置くと、200を超えるエッジロケーションがMPEG-DASHセグメントをキャッシュし、クライアントは東京以外でも低レイテンシで取得できます。Origin Shieldをap-northeast-1に設定するとマルチレイヤキャッシュでS3リクエストが大幅に減り、Lambda@Edgeで不要ヘッダーを除去すればヒット率が向上しオリジン負荷とスロットリングを回避しやすくなります。また設定は数クリックで済み運用担当3名でも保守が容易、キャッシュによりデータ転送コストも削減できます。
Global AcceleratorはAnycast IPで最寄りのAWSネットワーク入口へトラフィックを吸い込み、専用バックボーンで東京リージョンのApplication Load Balancerまで届けるため、全世界からのRTTを短縮し安定した経路を提供します。ALBに紐付けたECS FargateサービスはRequestCountPerTargetを指標とするTarget Tracking Auto Scalingで1分間隔の細粒度スケールアウトが可能で、5分以内に10倍へ跳ね上がるフラッシュイベントでも自動でキャパシティを確保してHTTP 5xxを抑制できます。追加サーバ管理が不要で少人数運用と親和性が高い点もメリットです。
CloudFrontで静的セグメントをオフロードし、Global AcceleratorとALBおよびFargateの組合せで認証APIを弾力的に伸縮させれば、P95 100ms未満、急激な負荷10倍の自動吸収、99.9%可用性、コスト最適化という複数要件をそれぞれ補完しながら満たせるという総合的な判断が導かれます。
【SAP-202】電子書籍プラットフォームA社は、合計2 TBのPDF・画像を東京リージョンのS3に保存している。
世界120か国から秒間最大4,000件のダウンロード要求が発生し、初回バイト遅延は50 ms未満、95%キャッシュヒット率、月間配信コストを現状比30%削減することが目標である。
ファイルは週1回より低頻度で更新されるが、更新後は1分以内に新バージョンを配信したい。
署名付きURLによる限定公開も継続する必要がある。
最も適切なアーキテクチャはどれか。
95パーセンタイル遅延50ms未満を確保するには、ユーザ所在地に近いネットワークエッジでAnycast IPを提示しTCPハンドシェイクを短縮する仕組みが有効です。AWS Global Acceleratorは世界のEdge地点で接続を受け取り内部でALBやEKSのターゲットへルーティングするため、東京とシンガポールへ均等に分散する利用者でも一律に低レイテンシを実現し、静的IPによるDNS伝搬待ちも発生しません。
同時接続2万と障害時30秒以内の自動フェイルオーバーを両立させるには、フローを途中で切り替えられるコンポーネントが鍵です。Route 53はTTLやローカルキャッシュの影響で実際の切替が数分になる恐れがあり、CloudFrontはオリジングループ障害検知に最短数十秒を要します。Global Acceleratorは独自ヘルスチェックでアクティブ/スタンバイ構成を監視し、疎通不可を数秒で検知して別リージョンALBへコネクションを誘導できるため接続維持と高速復旧を同時に満たしやすくなります。
監視を既存のCloudWatchに統一して運用負荷を抑えたい場合、追加設定が少ないサービスほどメリットがあります。Global AcceleratorとALBのメトリクスはCloudWatchに自動連携され、EKSのContainer Insightsと同じダッシュボードで確認可能です。一方CloudFrontを介するとキャッシュ無効化設定やログ集約、Route 53を用いるとHealth Checkリソースの保守が増えます。低遅延・高速フェイルオーバー・最小運用という複数要件を俯瞰すると、Edgeでヘルスチェックとルーティングを一括提供するサービスが最も適合すると判断できます。
【SAP-203】多国籍 EC 企業は、東京リージョンの Amazon API Gateway+Lambda をオリジンとする商品検索 API を CloudFront で配信している。
1 日 4 億リクエスト、ピーク同時 3 万接続、平均レスポンス 1.5 KB。
90 パーセンタイル TTFB 100 ms 以内、キャッシュヒット率 95% が求められる。
匿名とログインで応答が異なり、判定には Cookie「sid」の有無のみを使用する。
圧縮済みオブジェクトを Accept-Encoding(br/gzip) 別に保持したい。
Origin-Shield は有効とする方針で、コスト増を抑えつつ目標を達成するキャッシュビヘイビア設定はどれか。
海外からの接続遅延が主にインターネット経由の距離と輻輳によるネットワーク転送時間である場合、既存の ALB をエンドポイントとして AWS Global Accelerator を有効化し、各 PoP で受けたトラフィックを AWS グローバルバックボーンで東京リージョンまで運ぶことでアプリ改修なしに待ち時間を 100ms 未満へ短縮しやすく、Fargate や Auto Scaling 設定もそのまま活かせるため運用コストの増加を 20% 程度に抑えやすいです。
ユーザー情報を他リージョンに永続保存できない制約があるとき、Route 53 のレイテンシールーティングで各リージョンに Fargate と Aurora Global Database を展開する案では書き込みが必ずリーダーリージョンへ転送され整合性確保のためのアプリ改修やクロスリージョン転送料金が増大し、RTO 1 時間・RPO 0 分を満たせてもコストおよび実装変更の観点で制限を超える恐れがあります。
RTO 1 時間、RPO ゼロ、データを東京にとどめる、アプリ改修を最小化、レイテンシ 100ms 未満、SLA 99.9%、コスト 120% 以内という複数要件を俯瞰すると、世界中の PoP でトラフィックを受け取り AWS グローバルネットワークへ流し既存 ALB へ届ける AWS Global Accelerator を前段に置くシンプル構成が総合的に最もバランスの取れた選択となります。
【SAP-204】金融 SaaS 企業は決済レコードを Amazon DynamoDB に格納している。
更新は平均 2 万件/秒、ピーク 3 万件/秒で発生する。
各変更イベントについて (1) 200 ms 未満で不正検知ロジックを実行し、(2) 直近 24 時間分のイベントを 10 分ウィンドウで SQL 集計し、(3) 判定結果を複数のマイクロサービスへ順序を保って配信する必要がある。
運用負荷を最小化しつつスケーラブルに要件を満たすアーキテクチャとして最も適切なものはどれか。
低遅延を狙うなら、クライアントがまず到達する入口をできるだけ近くにすることが基本です。AWS Global Accelerator は Anycast IP を提供し、ユーザーは東京でもシドニーでも最寄り Edge で TCP セッションを確立します。その後は AWS バックボーンを通して ap-northeast-1 や ap-southeast-1 の ALB へ転送されるため、インターネット経路のばらつきを吸収しつつ平均/95 パーセンタイル遅延を大きく短縮できます。コード変更は ALB をエンドポイントとして登録する操作のみで済みます。
Route 53 のレイテンシールーティングはシンプルですが、DNS キャッシュや TTL の影響でクライアントがリージョン障害後も古い IP を保持するケースがあります。また名前解決は最寄りの DNS リゾルバから行われるため、実際の接続元と経路が一致せず期待レイテンシを外すこともあります。Global Accelerator であれば単一の DNS 名と固定 IP のまま、リアルタイム測定に基づくヘルスチェックと自動フェイルオーバでリージョントラブルを透過的に吸収できます。
CloudFront は WebSocket 対応を含む HTTP ベースの配信には便利ですが、常時 5 万同時接続で 1 秒 10 万メッセージといった金融系の双方向通信では POP からオリジンへのバックホール遅延がボトルネックになりやすく、さらにシンガポール障害時に東京へ自動切替する仕組みを自前で実装する必要があります。Global Accelerator は L4 転送なのでスループット制限が少なく、マルチリージョン ALB へのトラフィックダイナミック分散と TCP 最適化を一括で提供し、低遅延・単一 DNS・リージョン冗長・低工数という全要件を総合的に満たしやすくなります。
【SAP-205】メディア配信スタートアップは、平均 2 000 RPS の Go 製 API を運用しているが、プロモーション時には 15 分間で 10 倍に急増する。
SLA は 99.95%、p95 レイテンシ 40 ms 未満、インスタンス中断時も接続の維持が必要である。
ARM ベースを優先しつつ x86 へフォールバックし、運用負荷を抑えてコストを最適化したい。
1 TB のオンプレミス MySQL は業務停止なし(RPO 0、RTO 5 分)で Amazon DynamoDB へ移行し、移行期間中も書き込みを継続しながら段階的にカットオーバーする必要がある。
最も適切なアーキテクチャはどれか。
EC2 Auto Scaling の Warm Pool を利用すると、AMI 取得や gRPC アプリのウォームアップを終えたインスタンスを停止状態で 10 %程度保持でき、Pending→InService を数秒に短縮できます。5 倍スパイクでも 30 秒内で追従しやすく、マルチ AZ と RPO0 を守りつつ運用工数と通常時コストの上昇を最小限に抑えられます。
Graviton2 世代の c7g.2xlarge に置き換えて Cluster プレイスメントグループに集約すると、Nitro ベースの 200 Gbps ENA によりノード間 RTT がマイクロ秒台となり p95 レイテンシ削減に直結します。ARM アーキテクチャは vCPU あたり性能あたりの料金が低く台数も圧縮できるため、レイテンシ改善とコスト最適化を同時に実現し、3AZ の耐障害性も維持できます。
ターゲット追跡スケーリングで CPU 65 %などの CloudWatch メトリクスを用いクールダウンを 0 秒に設定すれば、需要変動をほぼリアルタイムに捉えて段階的に EC2 を追加でき、30 秒スケール要件と運用自動化を両立できます。Network Load Balancer や ElastiCache など他サービスも選択肢にはなるものの、暗号化経路や整合性の検証が増える点を踏まえると、これら三つの打ち手がレイテンシ短縮・迅速スケール・コスト効率を総合的にバランスさせやすいでしょう。
【SAP-206】金融機関A社は夜間5時間で毎秒10万件のシミュレーションを走らせるリアルタイムリスク計算エンジンをAWSへ再構築する。
各ノードは1 TiBメモリ、ノード間25 Gbps以上、合計50万IOPS(4 KiBランダムRead)を要求し、RTOは5分で許容される。
コストよりも超低レイテンシーと運用自動化を優先し、単一AZ内スケールアウトを認める。
計算結果200 GBは日次でS3耐久保管し、障害時は直近AMIとEBSスナップショットから別AZにクラスターを復旧できればよい。
最も適切な設計はどれか。
ヒント1
オーストラリアや香港の利用者から東京への 70 ms を 40 ms 未満に短縮するには、AWS Global Accelerator の Anycast IP で最寄り PoP から AWS バックボーンへ乗せ換える方法が効果的です。PoP から直接シンガポールや東京の ALB にルーティングするため経路が一貫し、専用ヘルスチェックで疎通不能時もサブ秒で健常リージョンへ自動切替えできます。
ヒント2
静的 1 TB/日と動的 WebSocket を単一ドメインで扱うなら Amazon CloudFront を Origin Shield 付きで前面に置き、オリジンを ALB に一本化する構成が運用を最小化できます。東京とシンガポールの ALB+Fargate をアクティブ-アクティブで並べ、Global Accelerator がエンドポイントの重み付け制御と高速フェイルオーバーを担えば、距離による遅延も障害時の切替え時間も要件内に収まります。
ヒント3
50 000 同時 WebSocket 接続は Application Load Balancer と AWS Fargate の水平スケールで容易に捌けますが、API Gateway WebSocket の接続上限や Direct Connect の地理的制約では同条件を満たしにくいです。また DNS ベースの Route 53 レイテンシールーティングは TTL が切れるまで旧経路が残るため 1 秒以内の切替えが難しいです。レイテンシ短縮、キャッシュ効率、サブ秒フェイルオーバーを総合的に満たすには Global Accelerator+CloudFront+マルチリージョン ALB の組み合わせが最も現実的です。
【SAP-207】動画制作会社A社は、S3にアップロードされた4K素材(平均30 GB)をProRes 422へ変換するバッチ基盤を再設計している。
1本当たりの処理は最長120分、ピーク同時処理数は50本で、現行のLambda実装は15分タイムアウトにより失敗が頻発する。
運用負荷は最小化しつつ、コンテナイメージの脆弱性検査とバージョン管理を行い、アイドル時コストも抑えたい。
タスクにはパブリックIPを付与せずVPC内からS3のみアクセスさせ、ログは集中してCloudWatch Logsへ送信し、ジョブ失敗時はSNSでSlack通知する必要がある。
最適なアーキテクチャはどれか。
ヒント1
東南アジアと北米の利用者を 50 ms 以内で処理するには、クライアントを最寄り PoP で受け付けて最適なリージョンへ転送し、障害時に即座に経路を切り替える仕組みが重要です。AWS Global Accelerator は Anycast IP を世界へアナウンスし、Route 53 の TTL に依存しない独自ヘルスチェックを 15 秒間隔で実施して 30 秒以内に別リージョンへフェイルオーバーできるため、RTO 30 秒を満たしやすく既存 Application Load Balancer をそのまま利用できます。
ヒント2
動的 API が中心の B2B SaaS では CloudFront キャッシュの効果が限定的で、4xx/5xx フェイルオーバーは検知まで時間がかかります。Network Load Balancer や API Gateway へ置き換える案は TLS 終端やルーティングルールの再構築が必要で運用負荷が増大しがちです。Global Accelerator なら両リージョンの ALB をエンドポイント登録するだけで導入でき、エッジで TCP/TLS を終端して最短経路を選択し、レイテンシールーティングと高速障害検知が同時に実現できる点が強みです。
ヒント3
月額コスト 20 % 増まで許容される条件では、パケット転送量ベースで課金される Global Accelerator の追加コストは想定内に収まりやすく、VPC・ALB・ACM 証明書を一切変更せずに CNAME を向け替えるだけで導入が完了します。導入後は CloudWatch Metrics でヘルスチェック結果を可視化でき、マイクロサービスの拡張やリージョン追加時もエンドポイント登録だけで済むため、運用負荷を抑えながら 95 パーセンタイル遅延の短縮と RTO 改善が期待できます。
これらの観点を総合すると、DNS キャッシュに縛られず Anycast で遅延を縮め、既存 ALB を保持して 30 秒未満で自動フェイルオーバーできるサービスを採用する判断が最適といえるでしょう。
【SAP-208】ある自動車部品メーカーは夜間に CFD シミュレーションを実行する。
入力データは 500 GiB、256 vCPU の計算クラスターで 4 時間以内に完了させるため、ノード間レイテンシ 15 µs 未満、共有ストレージ 700 MiB/s 以上が必須である。
可用性より性能を優先し単一 AZ 配置を許容、コストは極力抑えたい。
運用負荷も最小化したい。
この要件を最も満たすアーキテクチャはどれか。
現在の ALB を VPC 内に残したままレイテンシを 200ms 未満へ縮めるには、エッジでキャッシュできる Amazon CloudFront を前段に置く方法が有効です。動画オブジェクトの 86% が週 1 回以下しか更新されない静的ファイルであるため、TTL を 24 時間程度に延ばしても整合性を損なわずキャッシュヒット率を高められ、トラフィックが 3 倍に増えてもオリジンへの負荷を抑えながら p99 スタートアップレイテンシを大幅に短縮できます。
CloudFront では Origin Shield を ap-northeast-1 に設定することで、複数エッジロケーションからのリクエストをリージョン内で一段階キャッシュし、Auto Scaling EC2 クラスターへの到達回数をさらに削減できます。これによりピーク時にもオリジンのスケールアウト頻度を下げ、SLA の月間可用性 99.9% と RPO 0/RTO 5 分をマネージドな仕組みで担保しながら、インフラコスト増を 15% 以内に収めやすくなる点が運用上の利点です。
EC2 の大規模インスタンス化や AWS Global Accelerator による TCP 最適化、Route 53 レイテンシベースルーティングでの多リージョン拡張なども選択肢ですが、ファイル同期や障害復旧の自動化が複雑になりやすく運用負荷が高まる恐れがあります。キャッシュを前提とした CloudFront+Origin Shield 構成は、パフォーマンス・可用性・コスト・運用の各要件を俯瞰した際に最もバランスの取れたアプローチと言えるでしょう。
【SAP-209】製造業A社は50,000台のセンサーから1秒毎に平均1 KBのJSONをAWS IoT Coreへ送信している。
運用部門は到着後30秒以内に最新データをAmazon Athenaで分析したい。
データはParquet+SnappyでS3に保存し、年/月/日/時/分のプレフィックスで自動パーティション化することが求められる。
RPOは0、ピーク時には250,000 msg/sまでスケールし、少なくとも1回配送を保証しつつ運用負荷と待機コストを最小化したい。
これらの要件を同時に満たすストリーミングパイプラインの設計として最適なのはどれか。
世界各地からの往復遅延を 50 ミリ秒未満に抑えるには、エッジ PoP に近い場所で TCP セッションを終端し、その後 AWS ネットワーク Backbone に乗せるのが効果的です。AWS Global Accelerator は Anycast の固定 IP アドレスを発行し、NLB や EC2 Auto Scaling の構成を変えずに最短経路転送を実現できるため、TLS ピン留めを維持しつつ遅延改善が狙えます。
フェイルオーバを 1 分以内に自動化するには、ヘルスチェックが直接トラフィックの経路を切り替える仕組みが必要です。DNS の TTL 再解決を待つ Route 53 やキャッシュが残る CloudFront 方式より、Global Accelerator エンドポイントグループの内蔵ヘルスチェックは数十秒で障害を検知し、次のリージョンの NLB へ即時転送できる利点があります。
運用作業やコード改修を最小に抑えつつ、固定 IP の TLS ピン留めを守り、世界全体のレイテンシ短縮とサブ 1 分のリージョン切替という複数要件を俯瞰すると、既存の NLB をそのまま登録し Anycast 静的 IP と高速自動フェイルオーバを同時に提供できる AWS Global Accelerator を中心に据える構成が総合的に最も適切です。
【SAP-210】大手ゲーム会社は世界 3 リージョンから発生する JSON アクセスログを平均 50,000 件/秒 (1 KB/件)、ピーク時は 2 倍で取り込む予定である。
要件は
①受信から 60 秒以内に Kibana で検索・可視化、
②サーバ運用なしで自動スケール、
③30 日経過後も検索可能だが低コスト階層へ自動移行、
④TLS と KMS による暗号化、
⑤99.9% 可用性を維持することである。
最適な設計はどれか。
北米や欧州のプレイヤーが東京リージョンの ALB に直接接続すると往復遅延が 200ms 超にも達するため、Amazon CloudFront を挟んで世界 450 以上の PoP で TLS と TCP を終端し Regional Edge Cache と Origin Shield を有効化しつつ HTTP/2 を用いてオリジンへの要求を束ねれば、アプリを改修せずに到達遅延を 50ms 未満へ近づけつつアウトバウンド課金とバックエンド負荷を大幅に削減できます。
ライブ HLS は 2 秒ごとに新セグメントが生成されるので CloudFront のキャッシュ TTL を同じ 2 秒にしてもヒット率は 99% 近く維持でき、同一セグメントを 15 万人が取得する場合でも ALB への転送は 1 リクエストで済み、データ転送量 350TB 中の大半がエッジ側で完結するため増分コストは数千 USD に収まり、RTO 15 分以内の DNS 切替だけで導入が完了し運用負荷も低いです。
Global Accelerator は PoP から東京までの AWS Backbone 利用で RTT を一定程度短縮できますがキャッシュを持たず転送量は減らず、インスタンスタイプ変更やプレイスメントグループはリージョン外遅延に無関係、S3 静的ウェブサイトは HTTPS 未対応かつエッジ分散が無いので 50ms 目標やコスト制約を同時達成しにくく、複数要件を照合すると世界規模エッジキャッシュを活用する構成が最適と判断できます。
【SAP-211】動画ストリーミング事業者 A 社は視聴端末から毎秒平均 50 000 件(20 KB/件)の JSON ログを受信している。
異常視聴パターンを 30 秒以内に検知し、5 分以内に Amazon Redshift へロードして過去テーブルと結合分析したい。
ログは障害発生時に 24 時間分を再処理でき、ピーク 10 Gbps、業務停止なくスケール調整できる取り込み層が必要である。
最も適切なデータ取り込みと後続処理の組み合わせはどれか。
金融業務で指定された RPO 1 分・RTO 15 分と 5 万 TPS/20 ms 未満という高い要件を同時に満たすには、PostgreSQL 互換のまま秒レベルでクロスリージョン複製を行える Aurora PostgreSQL Global Database が最も適しています。物理ログを専用ネットワークで伝搬し通常ラグ 1 秒未満、セカンダリ昇格も数十秒なのでリージョン停止でも影響を最小化できます。スナップショット+手動リストアや単一リージョン構成では転送・起動に時間が掛かり、監査指摘の DR 要件をクリアしにくい点を思い出してください。
EKS/Fargate 側は待機リージョンでも迅速にトラフィックを取れる準備が必要です。eksctl や AWS CDK でスタンバイクラスタと ALB を構成し、Route 53 ARC の本番レベルフェイルオーバーやヘルスチェックを使えば、Aurora セカンダリ昇格をトリガーに DNS を自動書き換えし、15 分以内のサービス再開を実現可能です。普段は最小限の稼働ノードでコストを抑えつつ、障害時には定義済みプレイルブックどおり自動化された切替が行われる点が評価されます。
複数リージョンを常時稼働させる場合は、アプリ層を両リージョンに並列配置し AWS Global Accelerator のマルチリージョンエンドポイントへ集約すると、エッジでの接続高速化と自動ルーティング切替を同時に確保できます。アクティブ-アクティブにしても書き込みは Aurora Global Database のプライマリに集約され整合性を保ち、読み取りはセカンダリでも分散可能です。性能・可用性・自動運用という複数要件を総合的に眺めると、クロスリージョン Aurora と動的トラフィック制御を組み合わせた設計が最も整合的な改善策と判断できます。
【SAP-212】フィンテック企業は、1 KB の取引イベントを平均 5 万件/秒(ピーク 10 万件/秒)で取り込み、整形後に顧客 ID をパーティションキーとする DynamoDB に格納し、99 ms 以内に集計 API を応答するマイクロサービスを設計している。
トラフィックは深夜帯に 1/10 まで減少する。
アイドルコストと運用負荷を極小化しつつスパイク時のスロットリングを防止するアーキテクチャとして最適なものはどれか。
API サーバーは突発的に 3 倍まで負荷が伸びるため、EC2 Auto Scaling を 3 つの AZ に展開するか、運用をさらに軽くできる ECS Fargate を採用するとスパイク時のリソース不足を防げます。ALB を介して各 AZ に均等トラフィックを流せば単一 AZ 障害も吸収でき、ヘルスチェックが不調インスタンスを即時切離すので学習セッションを維持しつつキャパシティ管理を自動化できます。
データベースはライセンス管理をなくしつつ書込み 3 万 TPS に耐え、RPO 5 分・RTO 15 分でリージョン障害から復旧する必要があります。Amazon RDS for MySQL の Multi-AZ や AWS Backup でのスナップショットコピーだけでは復旧が長引く恐れがあり、要件を満たしにくいです。Aurora MySQL Serverless v2 と Aurora グローバルデータベースなら 1 秒未満で他リージョンへレプリケーションでき、Route 53 フェイルオーバーによる DNS 切替で数分以内に復旧できるため目標値に合致しやすくなります。
コスト最適化と運用工数最小化の観点では、Reserved Instances やライセンス更新が必要な EC2+自前 MySQL より、需要に応じて自動で容量が変動し従量課金の Aurora Serverless v2 が有利です。Auto Scaling+ALB は使用量に比例してスケールし追加ライセンスも不要です。Route 53 と Aurora グローバルデータベースを組み合わせれば DR 手順をほぼ自動化でき、複数要件を俯瞰するとフルマネージドかつマルチリージョン対応のサービスを中核に据えた構成が最も合理的と考えられます。
【SAP-213】国際E コマース企業 A 社は、AWS Lambda(Java)から Amazon Aurora MySQL へ取引情報を挿入するイベント駆動バッチを運用している。
ピーク時の同時実行数は 3,000、Aurora の max_connections は 500 に制限されており、接続枯渇が頻発している。
ソースコードの大幅改修は不可とし、1 週間以内に以下を満たす恒久対策を導入したい。
・DB 物理接続数を 500 以内に抑えつつスループットを維持する
・Aurora フェイルオーバー時でもエンドポイントを変更不要とする
・認証情報は自動ローテーションし、静的な平文を残さない
・追加コストと運用負荷を最小化する
最適なアーキテクチャはどれか。
RPO を 0 分に近づけるには障害直後でも別リージョンに同一データが存在している必要があるため、S3 Cross-Region Replication と Replication Time Control を付与した S3 Multi-Region Access Point で書き込みを同時複製し、HIPAA 向けの SSE-KMS も保持しつつ運用者のコピー作業を不要にする構成が有効です。
読み取り可用性 99.99% 以上と低レイテンシを両立させるには Amazon CloudFront のオリジンフェイルオーバーを S3 Multi-Region Access Point のグローバル DNS と組み合わせ、ユーザーリクエストを常に最寄りで稼働中のリージョンへ自動ルーティングすることで単一 URL のまま災害時も高速配信を継続できます。
RTO 15 分以内という制約下ではバックアップリストアや DNS 手動切替は間に合わないため、Route 53 ARC や CloudFront ヘルスチェックで障害を検知し自動で代替オリジンへ迂回できる S3 アクティブ-アクティブ構成が求められ、ストレージコストやレプリケーション時間、運用工数を含む複数要件を俯瞰すると自動複製と自動ルーティングを備えた設計が最も総合的に適合します。
【SAP-214】グローバルに拠点を持つ製薬企業は、東京本社で毎日生成される 10 GB の研究用データファイルを 40 個、us-east-1 リージョンの S3 バケットに 2 時間以内で転送する必要がある (RTO=2 時間)。
東京側のインターネット帯域は 500 Mbps 固定であり、Direct Connect の導入や常時稼働サーバの増設は不可と決められている。
運用は研究員の PC から AWS CLI スクリプトのみで行い、転送コストも最小化したい。
パフォーマンス目標と制約を最も満たす設計はどれか。
RPO5分という監査条件では、RDSの自動バックアップやS3複製を介す方式はリストア時間が読めずRTO30分を超えがちです。Cross-Region Read ReplicaやAurora PostgreSQL Global Databaseなら秒単位で非同期複製が走り、Lambdaによる昇格やManaged Recoveryで自動化されたフェイルオーバーが行えるため、短時間で切替えながらログ損失も最小化できます。
アプリ層がECS Fargateの無状態コンテナであることを活かし、ap-southeast-1に10%程度のWarmスタンバイを置きRoute 53フェイルオーバーで流す方式と、両リージョンをGlobal Accelerator配下でアクティブ-アクティブにしてオートスケールする方式が検討できます。前者は月次コスト増を抑えつつRTO30分を達成しやすく、後者はレイテンシ改善と3倍成長への備えを高いレベルで両立します。
以上より、クロスリージョンリードレプリカ+Lambda+Route 53で構成するコスト効率の高いWarmスタンバイ案と、Aurora PostgreSQL Global Database+ECS両リージョン常時稼働+Global Acceleratorで構成するアクティブ-アクティブ案が、RPO5分・RTO30分・自動切替・30%以内のコスト増・将来スケールという複数要件を俯瞰した最もバランスの取れた選択肢になります。
【SAP-215】企業XはFinTech SaaSを展開している。
取引CSV(1 MB)を1日5万件、ピーク時は10分間に1万件をS3バケットへ集中アップロードする。
各オブジェクト到着から2分以内に内容を解析し、DynamoDBに重複なく格納することが必須である。
少なくとも1回の処理保証と自動バックオフ付きの再試行(最大10回)、運用負荷とコストの最小化が求められる。
オブジェクト順序は問わない。
最も適切なイベント駆動アーキテクチャはどれか。
Aurora Global Database はストレージレイヤで ap-northeast-1 から ap-southeast-2 などへ 1 秒未満で非同期複製し、cross-Region failover を 1 分弱で完了できます。CloudWatch と Route 53 フェイルオーバポリシーを連携させラグ監視を条件に自動昇格させれば、夜間当番が 3 名でも RPO 5 分・RTO 60 分を自動で満たし、リージョン内では Multi-AZ 構成で 99.95% を維持できます。
Amazon DMS の CDC 連続モードを使い、別リージョンの Aurora PostgreSQL レプリカへトランザクションログを送り続ければ 5 万 TPS 規模でもラグを数分に抑えられます。障害検知時に Lambda で promote-db-cluster を呼び、Route 53 ヘルスチェックにより API エンドポイントを切替えるフローを整えれば、人手を介さず RPO/RTO を達成しつつ DMS インスタンスとレプリカ分のコスト増で 20% 以内に収めやすいです。
リージョンまたぎのマルチマスターや完全アクティブ/アクティブ構成は書き込み競合の解決や Global Accelerator 料金などでコスト・複雑度が高くなりがちです。単一リージョン側は EKS ノードを 3AZ に分散し Aurora Multi-AZ で 99.95% を確保、災害対策は Global Database または DMS+レプリカと DNS 自動切替を組み合わせると、可用性・運用自動化・コストの全要件を俯瞰した最適解に近づきます。
【SAP-216】グローバルに展開するソーシャルEC企業は、1日あたり最大500万件の高解像度商品画像(平均8 MB)をS3バケットにアップロードし、30秒以内に4種のサムネイルを生成してCloudFrontで配信したい。
現在はS3イベントで直接Lambdaを呼び出しているが、同時実行数上限に達し処理遅延が発生している。
要件は以下のとおり:
・アップロード完了から配信可能になるまで平均レイテンシ20秒以下
・処理失敗時は再試行し、最大7日間メッセージを保持
・閑散時は計算コストを最小化し、ピーク時は自動的に10,000オブジェクト/分を処理
・世界中のユーザに平均RTT 100 ms未満で画像を配信し、バケットを直接公開しない
最も適切なアーキテクチャはどれか。
経営層が掲げる RPO 5 分以内を余裕を持って達成するには、リージョン間でサブセカンドの非同期レプリケーションを行う Aurora Global Database が最も適しています。プライマリで発生した書き込み平均 2000 IOPS が同時に大阪側リードレプリカへ流れ、通常 1 秒未満のラグで追従するため広域災害でもデータ損失を最小化できます。
RTO 30 分以内を考えると、障害後に EC2 Launch Template や Auto Scaling をゼロから起動していたのではブートストラップだけで時間を消費します。Route 53 Application Recovery Controller で DNS のヘルスチェックと自動スワップを構成し、各リージョンに最小 1 台のインスタンスをウォームスタンバイしておけば、フェイルオーバー検知と接続切替、オートスケール拡張を合わせても十分余裕が生まれます。
スナップショットを AWS Backup で 5 分毎にコピーして CloudFormation で再構築する手法は、バックアップ取得・転送・リストアの合計で 30 分を超える恐れがあり、DMS や DynamoDB グローバルテーブルもスキーマ互換や書込遅延で追加運用が発生します。Multi-AZ や EBS スナップショットだけではリージョン障害に弱いため、リージョン間同期と自動フェイルオーバーを兼ね備えた構成こそ運用負荷と要件を同時に満たせます。
したがって秒単位レプリケーションの Aurora Global Database と Application Recovery Controller、そして両リージョンでのウォームスタンバイ Auto Scaling 環境を組み合わせる案が RPO・RTO・遅延・運用効率の全要件を俯瞰してバランス良く満たします。
【SAP-217】ライブ動画配信プラットフォームでは、世界中から突発的に 2,000 rps〜最大 20,000 rps の POST API を受け取り、レイテンシ 50 ms 未満を必須とする。
サーバ運用を最小化し従量課金を優先することが求められる。
リクエストメタデータは Kinesis Data Firehose で 15 分以内に S3 に到達し、日次 500 GB(Parquet、GZIP)が追加される。
BI チーム 30 名は QuickSight ダッシュボードで準リアルタイムに可視化し、1 クエリ当たり 5 秒以内の応答を期待している。
管理作業を増やさずに性能とコスト効率を両立する最適なアーキテクチャはどれか。
可用性 99.99% と RPO 5 分を両立したい場合、書き込みを 6 箇所に同期しつつ秒単位でセカンダリリージョンへコピーできる Amazon Aurora MySQL–Compatible Global Database の特性が役立ちます。RDS MySQL マルチ AZ はリージョン間では遅延や手動昇格が残る点を比較してみてください。
RTO 60 分以内で運用自動化を望むなら、Aurora Global Database の自動フェイルオーバーは 1 分前後でプライマリを切替可能です。Route 53 フェイルオーバーや ALB のクロスリージョンターゲットグループと組み合わせれば、Web 層と DB 層を同じ手順で迅速に切替できる構成になります。
10 000 IOPS を維持しながらコストを抑えるには Aurora Storage の I/O 従量課金が有効で、io1 などのプロビジョンド IOPS を複数リージョンで確保する方法より経済的です。性能・復旧目標・自動化レベルという複数要件を俯瞰し、全条件を無理なく満たす仕組みを総合的に選択しましょう。
この教材の改善リクエストがある場合は、お気軽にご報告ください。
カテゴリを選択のうえ、詳細をご記入いただけますと幸いです。
CloudTech(クラウドテック)は多くのユーザーの皆様から改善リクエストをご協力いただき運営できております。
あなたの視点での気づきは他の学習者の迷いを解決する手助けとなります。
運営側でもチェックをしておりますが限界があるため、誠に恐縮ではございますが細かい点でもご遠慮なくご指摘をお願いいたします。
※ 匿名での報告となり、内容は一般公開されません。
※ 技術的なご質問への回答を行うフォームではございませんのでご注意ください。
