/80

AWS DEA-C01

AWS Certified Data Engineer - Associate は、コアデータ関連の AWS サービスに関するスキルと知識や、データの取り込みと変換、プログラミングの概念を適用しながらのデータパイプラインのオーケストレート、データモデルの設計、データライフサイクルの管理、データ品質の確保といった能力を検証します。

1 / 80

1.

1.
データエンジニアは、Amazon S3 バケットからデータを読み取るように AWS Glue ジョブを設定しています。データ エンジニアは、必要な AWS Glue 接続の詳細と、関連する IAM ロールを設定しました。ただし、データ エンジニアが AWS Glue ジョブを実行しようとすると、Amazon S3 VPC ゲートウェイ エンドポイントに問題があることを示すエラー メッセージを受け取ります。
データ エンジニアはエラーを解決し、AWS Glue ジョブを S3 バケットに接続する必要があります。
この要件を満たすソリューションはどれですか?

2 / 80

2.

2,
小売会社は、Amazon S3バケット内に顧客データハブを持っています。多くの国の従業員がデータハブを使用して、全社的な分析をサポートしています。ガバナンスチームは、企業のデータアナリストが、アナリストと同じ国内にいる顧客のデータにのみアクセスできるようにする必要があります。
最小限の運用労力でこれらの要件を満たすソリューションはどれですか?

3 / 80

3.

3,
あるメディア会社は、ユーザーの行動や好みに基づいて顧客にメディアコンテンツを推奨するシステムを改善したいと考えています。レコメンデーション システムを改善するには、サードパーティのデータセットからのインサイトを自社の既存の分析プラットフォームに組み込む必要があります。
同社は、サードパーティのデータセットを組み込むために必要な労力と時間を最小限に抑えたいと考えています。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

4 / 80

4.

4,
金融会社はデータメッシュを実装したいと考えています。データメッシュは、一元的なデータガバナンス、データ分析、データアクセス制御をサポートする必要があります。同社は、データカタログと抽出、変換、ロード (ETL) オペレーションにAWS Glueを使用することを決定しました。
AWS サービスのどの組み合わせがデータメッシュを実装しますか? (2つお選びください。)

5 / 80

5.

5,
データエンジニアは、多くの AWS Lambda 関数が使用するデータフォーマット プロセスを実行するカスタム Python スクリプトを管理します。データ エンジニアが Python スクリプトを変更する必要がある場合、データ エンジニアはすべての Lambda 関数を手動で更新する必要があります。
データ エンジニアは、Lambda 関数を更新するためにあまり手動ではない方法を必要としています。
この要件を満たすソリューションはどれですか?

6 / 80

6.

6,
ある企業は、AWS Glue で抽出、変換、ロード (ETL) データ パイプラインを作成しました。データ エンジニアは、Microsoft SQL Server 内のテーブルをクロールする必要があります。データ エンジニアは、クロールの出力を抽出、変換し、Amazon S3 バケットにロードする必要があります。データ エンジニアは、データ パイプラインを調整する必要もあります。
これらの要件を最もコスト効率よく満たす AWS のサービスまたは機能はどれですか?

7 / 80

7.

7,
金融サービス会社は、Amazon Redshift に財務データを保存しています。データ エンジニアは、Web ベースの取引アプリケーションをサポートするために財務データに対してリアルタイム クエリを実行したいと考えています。データ エンジニアは、取引アプリケーション内からクエリを実行したいと考えています。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

8 / 80

8.

8,
ある企業は、Amazon S3 内のデータに対するワンタイムクエリに Amazon Athena を使用しています。同社にはいくつかのユースケースがあります。企業は、同じ AWS アカウント内のユーザー、チーム、アプリケーション間のクエリプロセスとクエリ履歴へのアクセスを分離するための権限制御を実装する必要があります。
これらの要件を満たすソリューションはどれですか?

9 / 80

9.

9,
データエンジニアは、一連の AWS Glue ジョブを毎日実行するワークフローをスケジュールする必要があります。データ エンジニアは、Glue ジョブを特定の時間に実行または終了する必要はありません。
Glue ジョブを最もコスト効率の高い方法で実行できるソリューションはどれですか?

10 / 80

10.

10,
データ エンジニアは、データの形式を .csv から Apache Parquet に変換する AWS Lambda 関数を作成する必要があります。 Lambda 関数は、ユーザーが .csv ファイルを Amazon S3 バケットにアップロードする場合にのみ実行する必要があります。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

11 / 80

11.

11,
データエンジニアは、Amazon Athena クエリをより速く完了する必要があります。データ エンジニアは、Athena クエリで使用されるすべてのファイルが現在非圧縮の .csv 形式で保存されていることに気づきました。データ エンジニアは、ユーザーがほとんどのクエリを特定の列を選択して実行していることにも気づきました。
Athena クエリのパフォーマンスを最も高速化できるソリューションはどれですか?

12 / 80

12.

12,
製造会社は工場現場からセンサー データを収集し、業務効率を監視し、向上させています。同社は、Amazon Kinesis Data Streams を使用して、センサーが収集したデータをデータ ストリームに公開します。次に、Amazon Kinesis Data Firehose がデータを Amazon S3 バケットに書き込みます。
同社は、製造施設の大型スクリーンに業務効率のリアルタイム ビューを表示する必要があります。
これらの要件を最も低い遅延で満たすソリューションはどれですか?

13 / 80

13.

13,
ある企業は、投資ポートフォリオの財務実績の毎日の記録を .csv 形式で Amazon S3 バケットに保存しています。データ エンジニアは、AWS Glue クローラーを使用して S3 データをクロールします。
データ エンジニアは、AWS Glue データ カタログで S3 データに毎日アクセスできるようにする必要があります。
これらの要件を満たすソリューションはどれですか?

14 / 80

14.

14,
ある企業は、毎日の終わりに、毎日のトランザクション データを Amazon Redshift テーブルにロードします。同社は、どのテーブルがロードされ、どのテーブルをまだロードする必要があるかを追跡できるようにしたいと考えています。
データ エンジニアは、Redshift テーブルの負荷ステータスを Amazon DynamoDB テーブルに保存したいと考えています。データ エンジニアは、負荷ステータスの詳細を DynamoDB に公開する AWS Lambda 関数を作成します。
データエンジニアは Lambda 関数を呼び出して負荷ステータスを DynamoDB テーブルに書き込むにはどうすればよいでしょうか?

15 / 80

15.

15,
データ エンジニアは、5 TB のデータをオンプレミスのデータセンターから Amazon S3 バケットに安全に転送する必要があります。データの約 5% が毎日変更されます。データの更新は定期的に S3 バケットに反映される必要があります。データには複数の形式のファイルが含まれています。データ エンジニアは転送プロセスを自動化し、プロセスが定期的に実行されるようにスケジュールを設定する必要があります。
データエンジニアが運用上最も効率的な方法でデータを転送するには、どの AWS サービスを使用する必要がありますか?

16 / 80

16.

16,
ある企業は、オンプレミスの Microsoft SQL Server データベースを使用して金融取引データを保存しています。同社は毎月月末にトランザクション データをオンプレミスのデータベースから AWS に移行します。同社は、オンプレミスのデータベースから Amazon RDS for SQL Server データベースにデータを移行するコストが最近増加していることに気づきました。
同社は、データを AWS に移行するためのコスト効率の高いソリューションを必要としています。このソリューションでは、データベースにアクセスするアプリケーションのダウンタウンを最小限に抑える必要があります。
これらの要件を満たすために企業はどの AWS サービスを使用する必要がありますか?

17 / 80

17.

17,
データ エンジニアは、AWS Glue の抽出、変換、読み込み (ETL) ジョブを使用して、AWS 上にデータ パイプラインを構築しています。データエンジニアは、分析のために Amazon RDS および MongoDB からのデータを処理し、変換を実行し、変換されたデータを Amazon Redshift にロードする必要があります。データの更新は 1 時間ごとに行われる必要があります。
運用上のオーバーヘッドを最小限に抑えながらこれらの要件を満たすタスクの組み合わせはどれですか? (2つお選びください。)

18 / 80

18.

18,
ある企業は、RA3 ノード上で実行される Amazon Redshift クラスターを使用しています。同社は、需要に合わせて読み取りおよび書き込み容量を拡張したいと考えています。データ エンジニアは、同時実行スケーリングを有効にするソリューションを特定する必要があります。
この要件を満たすソリューションはどれですか?

19 / 80

19.

19,
データエンジニアは、毎日実行される一連の Amazon Athena クエリを調整する必要があります。各クエリは 15 分以上実行される場合があります。
これらの要件を最もコスト効率よく満たす手順の組み合わせはどれですか? (2つお選びください。)

20 / 80

20.

20,
ある企業はオンプレミスのワークロードを AWS に移行しています。会社は全体的な運用オーバーヘッドを削減したいと考えています。同社はサーバーレスのオプションも検討したいと考えている。
同社の現在のワークロードは、Apache Pig、Apache Oozie、Apache Spark、Apache Hbase、および Apache Flink を使用しています。オンプレミスのワークロードは、ペタバイト単位のデータを数秒で処理します。企業は、AWS への移行後も同等以上のパフォーマンスを維持する必要があります。
これらの要件を満たす抽出、変換、ロード (ETL) サービスはどれですか?

21 / 80

21.

21,
データエンジニアは、AWS のサービスを使用してデータセットを Amazon S3 データレイクに取り込む必要があります。データ エンジニアはデータセットのプロファイリングを行い、データセットに個人を特定できる情報 (PII) が含まれていることを発見します。データ エンジニアは、データセットをプロファイリングし、PII を難読化するソリューションを実装する必要があります。
最小限の運用労力でこの要件を満たすソリューションはどれですか?

22 / 80

22.

22,
ある企業は、社内の運用データベースから Amazon S3 ベースのデータレイクにデータを取り込む複数の抽出、変換、ロード (ETL) ワークフローを維持しています。 ETL ワークフローは、AWS Glue と Amazon EMR を使用してデータを処理します。
同社は、既存のアーキテクチャを改善して、自動化されたオーケストレーションを提供し、手作業を最小限に抑えたいと考えています。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

23 / 80

23.

23,
ある企業は現在、S3 標準ストレージ クラスを使用して、すべてのデータを Amazon S3 に保存しています。
データ エンジニアはデータ アクセス パターンを調査して傾向を特定しました。最初の 6 か月間、ほとんどのデータ ファイルは毎日数回アクセスされます。 6 か月から 2 年の間、ほとんどのデータ ファイルは毎月 1 回か 2 回アクセスされます。 2 年後、データ ファイルにアクセスされるのは年に 1 回か 2 回だけになります。
データ エンジニアは、S3 ライフサイクル ポリシーを使用して、新しいデータ ストレージ ルールを開発する必要があります。新しいストレージ ソリューションは、引き続き高可用性を提供する必要があります。
最もコスト効率の高い方法でこれらの要件を満たすソリューションはどれですか?

24 / 80

24.

24,
ある企業は、重要な分析タスクをサポートするための抽出、変換、ロード (ETL) 操作に使用する Amazon Redshift でプロビジョニングされたクラスターを維持しています。社内の営業チームは、ビジネス インテリジェンス (BI) タスクに使用する Redshift クラスターを維持しています。
最近、営業チームは、毎週の概要分析タスクを実行できるように、ETL Redshift クラスター内のデータへのアクセスをリクエストしました。営業チームは、ETL クラスターのデータを営業チームの BI クラスター内のデータと結合する必要があります。
同社は、重要な分析タスクを中断することなく ETL クラスター データを営業チームと共有するソリューションを必要としています。ソリューションでは、ETL クラスターのコンピューティング リソースの使用量を最小限に抑える必要があります。
これらの要件を満たすソリューションはどれですか?

25 / 80

25.

25,
データ エンジニアは、複数のソースからのデータを結合して、1 回限りの分析ジョブを実行する必要があります。データは、Amazon DynamoDB、Amazon RDS、Amazon Redshift、および Amazon S3 に保存されます。
この要件を最もコスト効率よく満たすソリューションはどれですか?

26 / 80

26.

26,
ある企業は、Apache Spark ジョブを実行するプロビジョニングされた Amazon EMR クラスターを使用してビッグデータ分析を実行することを計画しています。同社は高い信頼性を求めています。ビッグデータチームは、Amazon EMR でコストが最適化され、長時間実行されるワークロードを実行するためのベストプラクティスに従う必要があります。チームは会社の現在のパフォーマンスレベルを維持するソリューションを見つけなければなりません。
これらの要件を最もコスト効率よく満たすリソースの組み合わせはどれですか? (2つお選びください。)

27 / 80

27.

27,
ある企業は、リアルタイム分析機能を実装したいと考えています。同社は、Amazon Kinesis Data Streams と Amazon Redshift を使用して、毎秒数ギガバイトの速度でストリーミング データを取り込み、処理したいと考えています。同社は、既存のビジネス インテリジェンス (BI) および分析ツールを使用して、ほぼリアルタイムの洞察を導き出したいと考えています。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

28 / 80

28.

28,
ある企業は、Amazon QuickSight ダッシュボードを使用して、自社のアプリケーションの 1 つの使用状況を監視しています。同社は AWS Glue ジョブを使用してダッシュボードのデータを処理します。同社はデータを単一の Amazon S3 バケットに保存します。同社は毎日新しいデータを追加しています。
データ エンジニアは、ダッシュボードのクエリが時間の経過とともに遅くなっていることに気づきました。データ エンジニアは、クエリの速度低下の根本原因は、長時間実行されている AWS Glue ジョブであると判断しました。
AWS Glue ジョブのパフォーマンスを向上させるためにデータ エンジニアはどのようなアクションを実行する必要がありますか? (2つお選びください。)

29 / 80

29.

29,
データ エンジニアは、AWS Step Functions を使用してオーケストレーション ワークフローを設計する必要があります。ワークフローは、大規模なデータ ファイルのコレクションを並列処理し、各ファイルに特定の変換を適用する必要があります。
これらの要件を満たすために、データ エンジニアはどの Step Functions ステートを使用する必要がありますか?

30 / 80

30.

30,
ある企業は、レガシー アプリケーションを Amazon S3 ベースのデータレイクに移行しています。データ エンジニアは、レガシー アプリケーションに関連付けられたデータをレビューしました。データ エンジニアは、レガシー データに重複した情報が含まれていることを発見しました。
データ エンジニアは、レガシー アプリケーション データから重複情報を特定して削除する必要があります。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

31 / 80

31.

31,
ある企業が分析ソリューションを構築しています。このソリューションでは、データ レイク ストレージとして Amazon S3 を使用し、データ ウェアハウスとして Amazon Redshift を使用します。同社は、Amazon Redshift Spectrum を使用して、Amazon S3 内のデータをクエリしたいと考えています。
どのアクションが最速のクエリを提供しますか? (2つお選びください。)

32 / 80

32.

32,
ある企業は Amazon RDS を使用してトランザクション データを保存します。同社は、プライベート サブネットで RDS DB インスタンスを実行しています。開発者は、DB インスタンスでデータを挿入、更新、または削除するためのデフォルト設定で AWS Lambda 関数を作成しました。
開発者は、パブリック インターネットを使用せずに DB インスタンスにプライベートに接続できる機能を Lambda 関数に与える必要があります。
操作上のオーバーヘッドを最小限に抑えてこの要件を満たす手順の組み合わせはどれですか? (2つお選びください。)

33 / 80

33.

33,
ある会社には、Amazon API Gateway を使用して REST API を呼び出すフロントエンド React.JS ウェブサイトがあります。 API は Web サイトの機能を実行します。データ エンジニアは、API ゲートウェイを通じて時々呼び出すことができる Python スクリプトを作成する必要があります。コードは結果を API Gateway に返す必要があります。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

34 / 80

34.

34,
ある企業には、企業のワークロードを実行する本番環境の AWS アカウントがあります。同社のセキュリティ チームは、実稼働 AWS アカウントからのセキュリティ ログを保存および分析するために、セキュリティ AWS アカウントを作成しました。実稼働 AWS アカウントのセキュリティ ログは、Amazon CloudWatch Logs に保存されます。
この企業は、Amazon Kinesis Data Streams を使用してセキュリティ ログをセキュリティ AWS アカウントに配信する必要があります。
これらの要件を満たすソリューションはどれですか?

35 / 80

35.

35,
ある企業は Amazon S3 を使用して、半構造化データをトランザクション データ レイクに保存します。データ ファイルの中には小さいものもありますが、数十テラバイトのデータ ファイルもあります。
データ エンジニアは、変更データ キャプチャ (CDC) 操作を実行して、データ ソースから変更されたデータを識別する必要があります。データ ソースは完全なスナップショットを JSON ファイルとして毎日送信し、変更されたデータをデータ レイクに取り込みます。
変更されたデータを最もコスト効率よくキャプチャできるソリューションはどれですか?

36 / 80

36.

36,
データエンジニアは、Amazon S3 バケット内のデータに対して Amazon Athena クエリを実行します。 Athena クエリは、メタデータ テーブルとして AWS Glue データ カタログを使用します。
データ エンジニアは、Athena クエリ プランでパフォーマンスのボトルネックが発生していることに気づきました。データ エンジニアは、パフォーマンスのボトルネックの原因が S3 バケット内にある多数のパーティションであると判断しました。データ エンジニアは、パフォーマンスのボトルネックを解決し、Athena クエリの計画時間を短縮する必要があります。
これらの要件を満たすソリューションはどれですか? (2つお選びください。)

37 / 80

37.

37,
データ エンジニアは、AWS へのリアルタイム ストリーミング データの取り込みを管理する必要があります。データ エンジニアは、最大 30 分の時間枠で時間ベースの集計を使用して、受信ストリーミング データに対してリアルタイム分析を実行したいと考えています。データ エンジニアは、耐障害性の高いソリューションを必要としています。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

38 / 80

38.

38,
ある企業は、Amazon Elastic Block Store (Amazon EBS) 汎用 SSD ストレージを gp2 から gp3 にアップグレードすることを計画しています。同社は、アップグレードされたストレージへの移行中にデータ損失を引き起こす Amazon EC2 インスタンスの中断を防ぎたいと考えています。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

39 / 80

39.

39,
ある企業は、Microsoft SQL Server を実行する Amazon EC2 インスタンスから、Microsoft SQL Server DB インスタンス用の Amazon RDS にデータベース サーバーを移行しています。会社の分析チームは、移行が完了するまで毎日大規模なデータ要素をエクスポートする必要があります。データ要素は、複数のテーブルにわたる SQL 結合の結果です。データは Apache Parquet 形式である必要があります。分析チームはデータを Amazon S3 に保存する必要があります。
最も運用効率の高い方法でこれらの要件を満たすソリューションはどれですか?

40 / 80

40.

40,
データ エンジニアリング チームは、運用レポートに Amazon Redshift データ ウェアハウスを使用しています。チームは、長時間実行されるクエリによって生じる可能性のあるパフォーマンスの問題を防ぎたいと考えています。データ エンジニアは、クエリ オプティマイザーがパフォーマンスの問題を示す可能性のある条件を特定したときに、異常を記録するために Amazon Redshift のシステム テーブルを選択する必要があります。
この要件を満たすためにデータ エンジニアはどのテーブル ビューを使用する必要がありますか?

41 / 80

41.

41,
データエンジニアは、.csv 形式の構造化データのソースを Amazon S3 データレイクに取り込む必要があります。 .csv ファイルには 15 列が含まれています。データアナリストは、データセットの 1 つまたは 2 つの列に対して Amazon Athena クエリを実行する必要があります。データ アナリストがファイル全体をクエリすることはほとんどありません。
これらの要件を最もコスト効率よく満たすソリューションはどれですか?

42 / 80

42.

42,
ある会社は、異なる AWS リージョンに 5 つのオフィスを持っています。各オフィスには独自の IAM ロールを使用する独自の人事 (HR) 部門があります。同社は、Amazon S3 ストレージをベースとしたデータレイクに従業員の記録を保存しています。
データ エンジニアリング チームは、レコードへのアクセスを制限する必要があります。各人事部門は、その人事部門の地域内の従業員のレコードのみにアクセスできる必要があります。
運用上のオーバーヘッドを最小限に抑えてこの要件を満たすために、データ エンジニアリング チームはどの手順の組み合わせを実行する必要がありますか? (2つお選びください。)

43 / 80

43.

43,
ある企業は AWS Step Functions を使用してデータ パイプラインを調整します。パイプラインは、データソースからデータを取り込み、Amazon S3 バケットにデータを保存する Amazon EMR ジョブで構成されます。パイプラインには、データを Amazon Redshift にロードする EMR ジョブも含まれています。
同社のクラウド インフラストラクチャ チームは、Step Functions ステート マシンを手動で構築しました。クラウド インフラストラクチャ チームは、EMR ジョブをサポートするために EMR クラスターを VPC 内に起動しました。ただし、デプロイされた Step Functions ステート マシンは EMR ジョブを実行できません。
Step Functions ステート マシンが EMR ジョブを実行できない理由を特定するには、企業はどの手順の組み合わせを実行する必要がありますか? (2つお選びください。)

44 / 80

44.

44,
ある会社は、Amazon EC2 インスタンス上で実行されるアプリケーションを開発しています。現在、アプリケーションが生成するデータは一時的なものです。ただし、企業は EC2 インスタンスが終了した場合でもデータを保持する必要があります。
データ エンジニアは、Amazon Machine Image (AMI) から新しい EC2 インスタンスを起動し、データを保存するようにインスタンスを構成する必要があります。
この要件を満たすソリューションはどれですか?

45 / 80

45.

45,
ある企業は、Amazon Athena を使用して、Create Table As Select (CTAS) を使用して抽出、変換、ロード (ETL) タスクの SQL クエリを実行します。企業は分析を生成するために SQL ではなく Apache Spark を使用する必要があります。
どのソリューションにより、企業は Spark を使用して Athena にアクセスできるようになりますか?

46 / 80

46.

46,
企業は、データレイクに使用する Amazon S3 ストレージを分割する必要があります。パーティショニングでは、s3://bucket/prefix/year=2023/month=01/day=01 形式の S3 オブジェクト キーのパスが使用されます。
データエンジニアは、企業が新しいパーティションをバケットに追加するときに、AWS Glue データカタログが S3 ストレージと同期していることを確認する必要があります。
これらの要件を最小の遅延で満たすソリューションはどれですか?

47 / 80

47.

47,
メディア企業は、サービスとしてのソフトウェア (SaaS) アプリケーションを使用して、サードパーティのツールを使用してデータを収集します。会社はデータを Amazon S3 バケットに保存する必要があります。同社は、Amazon Redshift を使用してデータに基づいた分析を実行します。
運用上のオーバーヘッドを最小限に抑えながら、これらの要件を満たす AWS のサービスまたは機能はどれですか?

48 / 80

48,
データエンジニアは、Amazon Athena を使用して、Amazon S3 内の販売データを分析しています。データ エンジニアは、sales_data という名前のテーブルからいくつかの製品の 2023 年の売上高を取得するクエリを作成します。ただし、クエリは sales_data テーブルにあるすべての製品の結果を返すわけではありません。データ エンジニアは、問題を解決するためにクエリのトラブルシューティングを行う必要があります。
データ エンジニアの元のクエリは次のとおりです。
SELECT product_name, sum(sales_amount)

48. FROM sales_data -

WHERE year = 2023 -

GROUP BY product_name -
データ エンジニアは、これらの要件を満たすために Athena クエリをどのように変更する必要がありますか?

49 / 80

49.

49,
データ エンジニアには、Amazon S3 バケット内の Apache Parquet 形式のオブジェクトからデータを読み取る 1 回限りのタスクがあります。データ エンジニアは、データの 1 つの列のみをクエリする必要があります。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

50 / 80

50.

50,
ある企業はデータ ウェアハウスに Amazon Redshift を使用しています。企業は、Amazon Redshift マテリアライズド ビューの更新スケジュールを自動化する必要があります。
最小限の労力でこの要件を満たすソリューションはどれですか?

51 / 80

51.

51,
データ エンジニアは、1 つの AWS Lambda 関数と 1 つの AWS Glue ジョブで構成されるデータ パイプラインを調整する必要があります。ソリューションは AWS のサービスと統合する必要があります。
最小限の管理オーバーヘッドでこれらの要件を満たすソリューションはどれですか?

52 / 80

52.

52,
企業は、AWS クラウドで実行されるデータ ソースのデータ カタログとメタデータ管理をセットアップする必要があります。同社は、データ カタログを使用して、一連のデータ ストア内にあるすべてのオブジェクトのメタデータを管理します。データ ストアには、Amazon RDS や Amazon Redshift などの構造化ソースが含まれます。データ ストアには、Amazon S3 に保存されている JSON ファイルや .xml ファイルなどの半構造化ソースも含まれています。
同社は、データ カタログを定期的に更新するソリューションを必要としています。このソリューションでは、ソース メタデータへの変更も検出する必要があります。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

53 / 80

53.

53,
ある企業は、プロビジョニングキャパシティーモードで動作する Amazon DynamoDB テーブルにアプリケーションからのデータを保存します。アプリケーションのワークロードには、定期的なスケジュールで予測可能なスループット負荷があります。毎週月曜日の早朝には活動が直ちに増加します。週末の間、アプリケーションの使用率は非常に低くなります。
企業は、使用のピーク時にアプリケーションが一貫して動作することを保証する必要があります。
最もコスト効率の高い方法でこれらの要件を満たすソリューションはどれですか?

54 / 80

54.

54,
ある企業は、オンプレミスの Apache Hadoop クラスターを Amazon EMR に移行することを計画しています。この企業は、データ カタログを永続ストレージ ソリューションに移行する必要もあります。
同社は現在、Hadoop クラスター上のオンプレミスの Apache Hive メタストアにデータ カタログを保存しています。この会社は、データ カタログを移行するためにサーバーレス ソリューションを必要としています。
これらの要件を最もコスト効率よく満たすソリューションはどれですか?

55 / 80

55.

55,
ある企業は、Amazon Redshift でプロビジョニングされたクラスターをデータベースとして使用しています。 Redshift クラスターには 5 つの予約済み ra3.4xlarge ノードがあり、キー配布を使用します。
データ エンジニアは、ノードの 1 つで CPU 負荷が 90% を超えることが頻繁にあることに気づきました。ノード上で実行される SQL クエリはキューに入れられます。他の 4 つのノードは、通常、毎日の操作中に CPU 負荷が 15% 未満になります。
データ エンジニアは、現在の計算ノード数を維持したいと考えています。データ エンジニアは、5 つのコンピューティング ノードすべてにわたって負荷をより均等に分散したいとも考えています。
これらの要件を満たすソリューションはどれですか?

56 / 80

56.

56,
セキュリティ会社は、JSON 形式の IoT データを Amazon S3 バケットに保存します。企業が IoT デバイスをアップグレードすると、データ構造が変更される可能性があります。同社は、IoT データを含むデータ カタログを作成したいと考えています。会社の分析部門は、データ カタログを使用してデータのインデックスを作成します。
これらの要件を最もコスト効率よく満たすソリューションはどれですか?

57 / 80

57.

57,
ある企業は、トランザクションに関する詳細を Amazon S3 バケットに保存します。会社は、S3 バケットへのすべての書き込みを、同じ AWS リージョン内の別の S3 バケットに記録したいと考えています。
最小限の運用労力でこの要件を満たすソリューションはどれですか?

58 / 80

58.

58,
データエンジニアは、ユーザーが Amazon EMR および Amazon Athena クエリを通じてアクセスする中央メタデータ リポジトリを維持する必要があります。リポジトリは、多くのテーブルのスキーマとプロパティを提供する必要があります。メタデータの一部は Apache Hive に保存されます。データ エンジニアは、メタデータを Hive から中央メタデータ リポジトリにインポートする必要があります。
最小限の開発労力でこれらの要件を満たすソリューションはどれですか?

59 / 80

59.

59,
企業は AWS にデータレイクを構築する必要があります。企業は、行レベルのデータ アクセスと列レベルのデータ アクセスを特定のチームに提供する必要があります。チームは、Amazon Athena、Amazon Redshift Spectrum、および Amazon EMR の Apache Hive を使用してデータにアクセスします。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

60 / 80

60.

60,
航空会社は、分析のために飛行活動に関する指標を収集しています。同社は、定時出発を増やすために分析からどのように洞察が得られるかを示す概念実証 (POC) テストを実施しています。
POC テストでは、.csv 形式のメトリクスを含む Amazon S3 のオブジェクトを使用します。 POC テストでは、Amazon Athena を使用してデータをクエリします。データは S3 バケット内で日付ごとにパーティション化されます。
データ量が増加するにつれて、同社はストレージ ソリューションを最適化してクエリのパフォーマンスを向上させたいと考えています。
これらの要件を満たすソリューションの組み合わせはどれですか? (2つお選びください。)

61 / 80

61.

61,
ある企業は、重要なアプリケーションのデータベースとして Amazon RDS for MySQL を使用しています。データベースのワークロードはほとんどが書き込みであり、読み取りは少数です。
データ エンジニアは、DB インスタンスの CPU 使用率が非常に高いことに気づきました。 CPU 使用率が高いため、アプリケーションの速度が低下しています。データ エンジニアは、DB インスタンスの CPU 使用率を削減する必要があります。
この要件を満たすためにデータ エンジニアはどのようなアクションを実行する必要がありますか? (2つお選びください。)

62 / 80

62.

62,
ある企業は、Orders という名前の Amazon Redshift テーブルを 6 か月間使用しました。同社はテーブルの更新と削除を毎週実行します。このテーブルには、AWS リージョンを含む列にインターリーブされたソートキーがあります。
会社は、ストレージ容量が不足しないようにディスク容量を再利用したいと考えています。同社はソートキー列も分析したいと考えています。
これらの要件を満たす Amazon Redshift コマンドはどれですか?

63 / 80

63.

63,
製造会社はセンサーからデータを収集したいと考えています。データ エンジニアは、センサー データをほぼリアルタイムで取り込むソリューションを実装する必要があります。
ソリューションでは、データを永続的なデータ ストアに保存する必要があります。ソリューションでは、データをネストされた JSON 形式で保存する必要があります。企業は、10 ミリ秒未満の遅延でデータ ストアからクエリを実行できる必要があります。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

64 / 80

64.

64,
企業は、Amazon S3 内のデータレイクにデータを保存します。同社がデータ レイクに保存する一部のデータには、個人を特定できる情報 (PII) が含まれています。複数のユーザー グループが生データにアクセスする必要があります。企業は、ユーザー グループが必要な PII のみにアクセスできるようにする必要があります。
最小限の労力でこれらの要件を満たすソリューションはどれですか?

65 / 80

65.

65,
データエンジニアは、10 個のソースシステムからのデータを処理して、Amazon Redshift データベース内の 10 個のテーブルにロードする抽出、変換、ロード (ETL) パイプラインを構築する必要があります。すべてのソース システムは .csv、JSON、または Apache Parquet ファイルを 15 分ごとに生成します。ソース システムはすべて、ファイルを 1 つの Amazon S3 バケットに配信します。ファイル サイズの範囲は 10 MB ~ 20 GB です。 ETL パイプラインは、データ スキーマが変更されても正しく機能する必要があります。
これらの要件を満たすデータ パイプライン ソリューションはどれですか? (2つお選びください。)

66 / 80

66.

66,
ある金融会社は、Amazon Athena を使用してペタバイト規模のデータセットに対してオンデマンド SQL クエリを実行し、ビジネス インテリジェンス (BI) アプリケーションをサポートしたいと考えています。営業時間外に実行される AWS Glue ジョブは、毎日 1 回データセットを更新します。 BI アプリケーションの標準データ更新頻度は、企業ポリシーに準拠するために 1 時間です。
データエンジニアは、追加のインフラストラクチャコストを追加することなく、企業での Amazon Athena の使用コストを最適化したいと考えています。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

67 / 80

67.

67,
企業のデータ エンジニアは、テーブル SQL クエリのパフォーマンスを最適化する必要があります。同社はデータを Amazon Redshift クラスターに保存しています。データ エンジニアは予算の制約のため、クラスターのサイズを増やすことができません。
同社はデータを複数のテーブルに保存し、EVEN 分散スタイルを使用してデータをロードします。一部のテーブルのサイズは数百ギガバイトです。他のテーブルのサイズは 10 MB 未満です。
これらの要件を満たすソリューションはどれですか?

68 / 80

68.

68,
企業は、物理的な住所データを含む .csv ファイルを受け取ります。データは、Door_No、Street_Name、City、および Zip_Code という名前を持つ列にあります。会社は、これらの値を次の形式で保存するための単一の列を作成したいと考えています。

最小限のコーディング作業でこの要件を満たすソリューションはどれですか?

69 / 80

69.

69,
企業は、顧客の機密情報を含む通話ログを Amazon S3 オブジェクトとして受け取ります。企業は暗号化を使用して S3 オブジェクトを保護する必要があります。また、企業は、特定の従業員のみがアクセスできる暗号化キーを使用する必要があります。
最小限の労力でこれらの要件を満たすソリューションはどれですか?

70 / 80

70.

70,
ある企業は、S3 標準ストレージ クラスの数千の Amazon S3 バケットにペタバイトのデータを保存しています。このデータは、予測不可能で変動するデータ アクセス パターンを持つ分析ワークロードをサポートします。
同社は数カ月間、一部のデータにアクセスしていません。ただし、企業はミリ秒以内にすべてのデータを取得できなければなりません。会社は S3 ストレージのコストを最適化する必要があります。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

71 / 80

71.

71,
セキュリティレビュー中に、ある企業は AWS Glue ジョブの脆弱性を特定しました。同社は、Amazon Redshift クラスターにアクセスするための認証情報がジョブ スクリプトにハードコーディングされていることを発見しました。
データエンジニアは、AWS Glue ジョブのセキュリティ脆弱性を修正する必要があります。ソリューションでは、資格情報を安全に保存する必要があります。
これらの要件を満たすために、データ エンジニアはどの手順の組み合わせを実行する必要がありますか? (2つお選びください。)

72 / 80

72.

72,
データエンジニアは Amazon Redshift を使用して、リソースを大量に消費する分析プロセスを毎月 1 回実行しています。データ エンジニアは毎月、新しい Redshift でプロビジョニングされたクラスターを作成します。データ エンジニアは、分析プロセスが毎月完了した後、Redshift でプロビジョニングされたクラスターを削除します。データ エンジニアは毎月クラスターを削除する前に、バックアップ データをクラスターから Amazon S3 バケットにアンロードします。
データ エンジニアは、データ エンジニアがインフラストラクチャを手動で管理する必要のない、毎月の分析プロセスを実行するためのソリューションを必要としています。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

73 / 80

73.

73,
企業は、.xls 形式の顧客データを含むファイルを毎日受け取ります。同社はファイルを Amazon S3 に保存します。日次ファイルのサイズは約 2 GB です。
データ エンジニアは、顧客の名を含むファイル内の列と顧客の姓を含む列を連結します。データ エンジニアは、ファイル内の個別の顧客の数を判断する必要があります。
最小限の運用労力でこの要件を満たすソリューションはどれですか?

74 / 80

74.

74,
ヘルスケア企業は、Amazon Kinesis Data Streams を使用して、ウェアラブルデバイス、病院の設備、患者記録からリアルタイムの健康データをストリーミングします。
データ エンジニアは、ストリーミング データを処理するソリューションを見つける必要があります。データ エンジニアは、Amazon Redshift Serverless ウェアハウスにデータを保存する必要があります。このソリューションは、ストリーミング データと前日のデータのほぼリアルタイムの分析をサポートする必要があります。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

75 / 80

75.

75,
データエンジニアは、Amazon S3 バケットに保存されているデータに対する Amazon Athena クエリに基づく Amazon QuickSight ダッシュボードを使用する必要があります。データ エンジニアが QuickSight ダッシュボードに接続すると、権限が不十分であることを示すエラー メッセージが表示されます。
アクセス許可関連のエラーはどのような要因によって引き起こされる可能性がありますか? (2つお選びください。)

76 / 80

76.

76,
ある企業は、データセットを JSON 形式と .csv 形式で Amazon S3 バケットに保存します。同社は、Amazon RDS for Microsoft SQL Server データベース、プロビジョニングキャパシティーモードの Amazon DynamoDB テーブル、および Amazon Redshift クラスターを備えています。データ エンジニアリング チームは、データ サイエンティストが SQL に似た構文を使用してすべてのデータ ソースをクエリできるようにするソリューションを開発する必要があります。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

77 / 80

77.

77,
データエンジニアは、AWS Glue インタラクティブセッションを使用して機械学習 (ML) モデル用のデータを準備するように Amazon SageMaker Studio を設定しています。
データ エンジニアが SageMaker Studio を使用してデータを準備しようとすると、アクセス拒否エラーが発生します。
SageMaker Studio にアクセスするには、エンジニアはどの変更を行う必要がありますか?

78 / 80

78.

78,
ある企業では、SAP HANA、Microsoft SQL Server、MongoDB、Apache Kafka、Amazon DynamoDB などのデータ ソースから毎日約 1 TB のデータを抽出しています。一部のデータ ソースには、未定義のデータ スキーマまたは変更されるデータ スキーマが含まれています。
データ エンジニアは、これらのデータ ソースのスキーマを検出できるソリューションを実装する必要があります。ソリューションでは、データを抽出、変換し、Amazon S3 バケットにロードする必要があります。同社には、データ作成後 15 分以内にデータを S3 バケットにロードするというService Level Agreement (SLA) があります。
運用オーバーヘッドを最小限に抑えながらこれらの要件を満たすソリューションはどれですか?

79 / 80

79.

79,
ある企業には、Amazon S3 バケットに保存されているデータセットを使用する複数のアプリケーションがあります。同社は、個人を特定できる情報 (PII) を含むデータセットを生成する e コマース アプリケーションを持っています。会社には、PII へのアクセスを必要としない内部分析アプリケーションがあります。
規制を遵守するために、企業は PII を不必要に共有してはなりません。データ エンジニアは、データセットにアクセスする各アプリケーションのニーズに基づいて、PII を動的に編集するソリューションを実装する必要があります。
運用上のオーバーヘッドを最小限に抑えながら要件を満たすソリューションはどれですか?

80 / 80

80.

80,
データ エンジニアは、抽出、変換、読み込み (ETL) ジョブを構築する必要があります。 ETL ジョブは、ユーザーが Amazon S3 バケットにアップロードする毎日の受信 .csv ファイルを処理します。各 S3 オブジェクトのサイズは 100 MB 未満です。
これらの要件を最もコスト効率よく満たすソリューションはどれですか?

Your score is

0%

最終更新: 5月 13, 2024