본문 바로가기
AWS/SAA-C03

(291~300)Amazon AWS Certified Solutions Architect - Associate (SAA-C03) 덤프 문제

by 큌 2024. 6. 30.
반응형

Q291

문제: 미디어 회사는 Amazon CloudFront를 사용하여 스트리밍 비디오 콘텐츠를 제공하고 있으며, 사용자의 액세스를 제어하고 Amazon S3에서 호스팅되는 비디오 콘텐츠를 보호하려고 합니다. 일부 사용자는 쿠키를 지원하지 않는 사용자 지정 HTTP 클라이언트를 사용하며, 일부 사용자는 하드코딩된 URL을 변경할 수 없습니다.

답: A. 서명된 쿠키, B. 서명된 URL

핵심 지문 및 개념:

  • 쿠키를 지원하지 않는 사용자
  • 하드코딩된 URL 변경 불가

사용 기술 및 개념 설명:

Signed Cookies and Signed URLs:

  • 서명된 쿠키: 사용자가 쿠키를 지원하는 경우, 서명된 쿠키를 통해 CloudFront가 특정 콘텐츠에 대한 액세스를 제어할 수 있습니다.
  • 서명된 URL: 하드코딩된 URL을 변경할 수 없는 경우, 서명된 URL을 사용하여 특정 기간 동안만 접근을 허용할 수 있습니다. 쿠키를 지원하지 않는 클라이언트에서도 사용 가능합니다.

Q292

문제: 회사는 여러 소스에서 실시간 스트리밍 데이터를 수집하고, Amazon S3에 데이터를 쓰기 전에 변환해야 하며, SQL을 사용하여 변환된 데이터를 쿼리할 수 있어야 합니다.

답: A. Amazon Kinesis Data Streams를 사용하여 데이터를 스트리밍합니다. Amazon Kinesis Data Analytics를 사용하여 데이터를 변환합니다. Amazon Kinesis Data Firehose를 사용하여 Amazon S3에 데이터를 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다. B. Amazon Managed Streaming for Apache Kafka(Amazon MSK)를 사용하여 데이터를 스트리밍합니다. AWS Glue를 사용하여 데이터를 변환하고 데이터를 Amazon S3에 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.

핵심 지문 및 개념:

  • 실시간 스트리밍 데이터 수집 및 변환
  • SQL을 사용한 데이터 쿼리

사용 기술 및 개념 설명:

Amazon Kinesis Data Streams, Kinesis Data Analytics, and Kinesis Data Firehose:

  • Kinesis Data Streams: 실시간 데이터를 스트리밍하는 데 사용.
  • Kinesis Data Analytics: 스트리밍 데이터를 실시간으로 변환.
  • Kinesis Data Firehose: 데이터를 Amazon S3로 전달.
  • Amazon Athena: S3에 저장된 데이터를 SQL을 사용하여 쿼리.

Amazon Managed Streaming for Apache Kafka (MSK) and AWS Glue:

  • Amazon MSK: Kafka를 사용하여 데이터 스트리밍.
  • AWS Glue: 데이터를 변환하여 S3에 저장.
  • Amazon Athena: S3에서 데이터를 SQL로 쿼리.

Q293

문제: 회사는 온프레미스 볼륨 백업 솔루션을 AWS로 마이그레이션하고, 로컬 액세스를 유지하면서 안전하게 데이터를 전송하려고 합니다.

답: D. AWS Storage Gateway를 사용하고 저장된 볼륨 게이트웨이를 구성합니다. 온프레미스에서 Storage Gateway 소프트웨어 어플라이언스를 실행하고 게이트웨이 스토리지 볼륨을 온프레미스 스토리지에 매핑합니다. 데이터에 대한 로컬 액세스를 제공하기 위해 게이트웨이 스토리지 볼륨을 마운트합니다.

핵심 지문 및 개념:

  • 로컬 액세스 유지
  • 안전한 데이터 전송

사용 기술 및 개념 설명:

AWS Storage Gateway:

  • 저장된 볼륨 게이트웨이: 기본 데이터를 로컬에 저장하고, 스냅샷을 AWS로 전송. 로컬에서 지연 시간이 짧은 액세스를 제공하면서 AWS에 안전하게 백업.

Q294

문제: Amazon EC2 인스턴스에서 호스팅된 애플리케이션이 Amazon S3 버킷에 액세스해야 하며, 트래픽이 인터넷을 통과하면 안 됩니다.

답: B. VPC에서 Amazon S3에 대한 게이트웨이 VPC 엔드포인트를 설정합니다.

핵심 지문 및 개념:

  • 인터넷을 통과하지 않는 트래픽
  • S3 접근

사용 기술 및 개념 설명:

Gateway VPC Endpoints:

  • 게이트웨이 VPC 엔드포인트: 인터넷 게이트웨이나 NAT 없이 VPC에서 Amazon S3로 트래픽을 라우팅하여 안전하고 안정적인 연결을 제공합니다.

Q295

문제: 전자상거래 회사는 PII가 포함된 데이터를 AWS 클라우드에 저장하며, 세 개의 애플리케이션 중 하나만 PII를 처리해야 합니다. 나머지 두 애플리케이션은 PII를 제거해야 합니다.

답: B. 데이터를 Amazon S3 버킷에 저장합니다. 요청 애플리케이션에 데이터를 반환하기 전에 S3 객체 Lambda를 사용하여 데이터를 처리하고 변환합니다.

핵심 지문 및 개념:

  • PII 처리 제어
  • 데이터 변환

사용 기술 및 개념 설명:

S3 Object Lambda:

  • S3 객체 Lambda: S3 버킷에서 데이터를 반환하기 전에 Lambda 함수를 통해 데이터를 처리하고 변환. 최소한의 운영 오버헤드로 데이터를 변경할 수 있습니다.

Q296

문제: 새 VPC를 생성하여 개발 VPC와 피어링 연결을 해야 합니다. 개발 VPC의 CIDR 블록은 192.168.0.0/24입니다.

답: D. 10.0.1.0/24

핵심 지문 및 개념:

  • 새 VPC CIDR 블록
  • 피어링 연결

사용 기술 및 개념 설명:

CIDR Blocks and VPC Peering:

  • CIDR 블록: VPC와 연결된 기존 CIDR 블록과 겹치지 않는 CIDR 블록을 선택해야 합니다. 10.0.1.0/24는 192.168.0.0/24와 겹치지 않으므로 유효한 선택입니다.

Q297

문제: 5개의 Amazon EC2 인스턴스에 배포된 애플리케이션의 확장성을 자동화하고, CPU 사용량 급증 시 리소스를 충분히 확보해야 합니다.

답: B. EC2 Auto Scaling 그룹을 생성합니다. 기존 ALB를 로드 밸런서로 선택하고 기존 대상 그룹을 대상 그룹으로 선택하십시오. ASGAverageCPUUtilization 지표를 기반으로 하는 대상 추적 조정 정책을 설정합니다. 최소 인스턴스를 2로, 원하는 용량을 3으로, 최대 인스턴스를 6으로, 목표 값을 50%로 설정합니다. Auto Scaling 그룹에 EC2 인스턴스를 추가합니다.

핵심 지문 및 개념:

  • 자동 확장
  • CPU 사용량 급증 대응

사용 기술 및 개념 설명:

EC2 Auto Scaling:

  • Auto Scaling 그룹: 수요에 따라 EC2 인스턴스를 자동으로 확장하고 축소.
  • 대상 추적 조정 정책: CPU 사용량을 모니터링하여 목표 값에 따라 인스턴스를 조정. 비용을 최적화하면서도 급증 시 충분한 리소스를 확보할 수 있습니다.

Q298

문제: Auto Scaling 그룹과 RDS DB 인스턴스를 단일 가용 영역에서 다중 가용 영역으로 확장하여 가용성을 높여야 합니다.

답: C. 각 가용 영역에서 서브넷을 프로비저닝합니다. 두 가용 영역에 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 다중 AZ 배포를 위해 DB 인스턴스를 구성합니다.

핵심 지문 및 개념:

  • 다중 가용 영역
  • 가용성 증가

사용 기술 및 개념 설명:

Multi-AZ Deployment:

  • Auto Scaling 그룹: 두 가용 영역에 걸쳐 인스턴스를 배포하여 가용성을 높입니다.
  • 다중 AZ DB 인스턴스: 데이터베이스를 다른 가용 영역에 동기적으로 복제하여 장애 발생 시 자동으로 대기 인스턴스로 전환.

Q299

문제: 실험실에서 8TB의 데이터를 처리하기 위해 1밀리초 미만의 대기 시간과 최소 6GBps의 처리량이 필요합니다.

답: B. 원시 데이터를 저장할 Amazon S3 버킷을 생성합니다. 영구 SSD 스토리지를 사용하는 Amazon FSx for Lustre 파일 시스템을 생성합니다. Amazon S3에서 데이터를 가져오고 내보내는 옵션을 선택합니다. EC2 인스턴스에 파일 시스템을 탑재합니다.

핵심 지문 및 개념:

  • 1밀리초 미만의 대기 시간
  • 최소 6GBps의 처리량

사용 기술 및 개념 설명:

Amazon FSx for Lustre:

  • FSx for Lustre: 고성능 파일 시스템으로, 밀리초 미만의 대기 시간과 높은 처리량 제공.
  • Amazon S3 통합: S3에서 데이터를 가져오고 내보낼 수 있어 데이터 처리에 유리.

Q300

문제: 온프레미스 데이터 센터에서 AWS 클라우드로 레거시 애플리케이션을 마이그레이션하고, 데이터베이스 스토리지는 시간이 지남에 따라 계속 증가할 예정입니다.

답: C. 애플리케이션 계층을 Amazon EC2 예약 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon Aurora 예약 인스턴스로 마이그레이션합니다.

핵심 지문 및 개념:

  • 레거시 애플리케이션 마이그레이션
  • 데이터베이스 스토리지 증가

사용 기술 및 개념 설명:

Amazon EC2 예약 인스턴스와 Amazon Aurora:

  • EC2 예약 인스턴스: 장기적인 비용 절감을 위한 예약 인스턴스.
  • Amazon Aurora: 고성능, 고가용성 관계형 데이터베이스 서비스로, 데이터 증가에 대응 가능.
반응형