3問中 0問が回答されています
質問:
You have already completed the テスト before. Hence you can not start it again.
問題を読み込んでいます…
You must sign in or sign up to start the テスト.
まず、次の操作を完了する必要があります:
正解数 0/問題数3
回答にかかった時間:
終了時間となりました
回答お疲れ様でした。
Earned Point(s): 0 of 0, (0)
0 Essay(s) Pending (Possible Point(s): 0)
【DEA-40】EC サイトを運営する企業は、RA3 ノード 6 台の Amazon Redshift に 3 TB の fact_sales テーブルを保持している。
テーブルは sale_date, product_id のインタリーブソートキーで、毎日新規データを COPY 挿入し、90 日経過分 5 % を DELETE している。
svv_table_info では deleted 25 %、unsorted 35 % が報告され、クエリ性能が低下した。
運用チームは毎晩 30 分の保守時間内でストレージを回収しつつソートキーを最適化したい。
最も適切な対応はどれか。
svv_table_info で deleted が 25 %、unsorted が 35 % と報告されると Amazon Redshift のゾーンマップが崩れ、sale_date や product_id の条件が効かずフルスキャンが発生します。空きブロックを掃除する VACUUM DELETE ONLY と、インタリーブソートキーの断片化を直す VACUUM REINDEX を併用することで、ストレージ回収とソート最適化を同時に達成できる点を意識してください。
RA3 ノード 6 台で 3TB を抱える環境では、テーブル全体を書き換える VACUUM FULL や S3 への UNLOAD→COPY フルリロードはネットワーク転送と圧縮展開だけで数時間を要し、30 分の保守枠には収まりません。並列度を高くした VACUUM DELETE ONLY はスライス単位でマルチスレッド実行され I/O を使い切れるため短時間で削除領域を除去でき、その直後に軽量な VACUUM REINDEX を続ければ同じウィンドウ内でソートも整います。
本件の要件は「消した 25 %の領域を即時に reclaim し、unsorted 35 %を 20 %未満まで下げ、かつ 30 分以内に完了する」ことですから、Amazon S3 経由の再ロードや翌日持ち越しは片手落ちとなります; Redshift の並列 Vacuum 設定を最大化して削除掃除を先に行い、その流れでインタリーブキー対応の REINDEX を続ける一筆書きの手順が時間・容量・性能すべての観点で最もバランスの良い解となります。
【DEA-41】企業AはIoTセンサーデータを毎日2 TBずつAmazon S3に収集している。
書き込み後30日間はAthenaで高頻度に分析するが、その後のアクセス頻度は予測できない。
データは365日保持し自動削除する。
SLAは可用性99.9%以上、再取得は12時間以内で許容される。
複雑なライフサイクルルールの保守は避けつつ総コストを最小化したい。
最も適切なストレージ戦略はどれか。
IoTセンサの新着 2TB/日 を Athena で 30 日間集中的に分析する場合、S3 Standard や Glacier に直接格納すると読み出し料金やリストアの手間が増えてコストが跳ね上がりますが、S3 Intelligent-Tiering なら PUT したまま何も設定せずとも最初の 30 日間は頻繁アクセス階層に留まり高速クエリが可能で、投入時からの性能と料金を最適に両立できます。
その 30 日経過後はアクセス頻度が読めず再取得は最大 12 時間で許容されるため、Intelligent-Tiering が備えるアーカイブアクセス階層(数時間)とディープアーカイブアクセス階層(最長 12 時間)への自動移行が監視料金だけで実現でき、かつマルチ AZ で 99.9% 以上の可用性という S3 の SLA も同時にクリアできます。
望むのは 365 日後の自動削除と保守の単純化なので、Intelligent-Tiering に Expiration ルールを 1 行置くだけで済み、Standard-IA などを日数別に段階設定する複雑な Lifecycle や One Zone-IA への手動切替を避けつつ、保管料金・復旧時間・可用性・運用負荷を総合的に見たとき最も合理的な選択となります。
【DEA-42】動画配信企業A社は毎日50 GBのJSONログをAmazon S3に保存している。
ログは書き込み後30日間はAthenaで頻繁に分析されるが、その後の参照は年に数回である。
監査要件で7年間保持が必要、突発アクセスは12時間以内の取得で十分とされる。
現在はS3 Standardのみを利用しており、月次コストを70%以上削減しつつ運用負荷を最小化したい。
最も適切なストレージ戦略はどれか。
1行目
Athena が直接スキャンできるのは Amazon S3 Standard・Standard-IA・Intelligent-Tiering だけで、Glacier 系は一度 Restore が必要です。よって書き込み後 30 日間は Standard に置き頻繁分析をこなし、その後はアクセス頻度低下を見越してコストの低い層へ段階移行する構図を考えると道筋が見えてきます。
2行目
S3 Lifecycle ルールを使えば、Standard から 30 日で S3 Standard-IA、さらに 90 日で S3 Glacier Deep Archive へ自動移行し、満了した 7 年後に Expiration で削除という連鎖がワンクリックで構成できます。Deep Archive は最大 12 時間の取り出し猶予があるため監査の「突発アクセス 12 時間以内」も満たし、総コストは 70%以上圧縮できます。
3行目
バージョニングで保存の安全性を高めながら完全自動のライフサイクルに委ねると運用負荷はほぼゼロになります。一方、即時検索を優先して最初から Glacier 系に置くと Restore 手数料や待機時間が頻繁発生し、手動コピー運用ではヒューマンリスクも増します。全要件を横串で比べると、段階的自動階層化こそ最適解と判断できます。
教材の改善ご提案やご指摘を承るフォームです。
この教材の改善リクエストがある場合は、お気軽にご報告ください。
カテゴリを選択のうえ、詳細をご記入いただけますと幸いです。
CloudTech(クラウドテック)は多くのユーザーの皆様から改善リクエストをご協力いただき運営できております。
あなたの視点での気づきは他の学習者の迷いを解決する手助けとなります。
運営側でもチェックをしておりますが限界があるため、誠に恐縮ではございますが細かい点でもご遠慮なくご指摘をお願いいたします。
※ 匿名での報告となり、内容は一般公開されません。
※ 技術的なご質問への回答を行うフォームではございませんのでご注意ください。
