본문 바로가기
AWS/SAA-C03

Amazon AWS Certified Solutions Architect - Associate (SAA-C03) 덤프 문제(1~10)

by 큌 2024. 4. 19.
반응형

문제 1

  1.  회사
    1. 여러 대륙에 걸쳐 도시의 온도, 습도 및 대기압에 대한 데이터를 수집.
    2. 매일 각 사이트에서 수집하는 데이터의 평균 볼륨은 500GB
    3. 각 사이트에는 고속 인터넷 연결이 있음.
  2. 요구사항
    1.  모든 글로벌 사이트의 데이터를 단일 Amazon S3 버킷 최대한 빨리 집계해야 함.
    2. 운영 복잡성을 최소화해야  함.

  3. => 대상 S3 버킷에서 S3 Transfer Acceleration을 킨다. 멀티파트 업로드를 사용해 사이트 데이터를 대상 S3 버킷에 직접 업로드한다.
  4. 개념 설명
    S3 Transfer Acceleration:
    Amazon S3에서 제공하는 기능으로, Amazon CloudFront의 엣지 로케이션을 사용하여 데이터를 전송 속도를 가속화.전 세계 어디에서나 데이터를 S3 버킷으로 더 빠르게 업로드할 수 있다. 각 사이트에서 데이터를 전송할 때 전송 속도를 높여주어, 데이터가 단일 S3 버킷으로 신속하게 집계될 수 있다.
    멀티파트 업로드:
    대용량 파일을 여러 부분으로 나누어 병렬로 업로드하는 방법으로, 이를 통해 대용량 파일을 업로드할 때 속도와 신뢰성을 높일 수 있다.

왜 다른 옵션이 아닌가?

B. 각 사이트의 데이터를 가장 가까운 리전의 S3 버킷에 업로드하고, S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사한 후 원본 S3 버킷에서 데이터를 제거: 이 방법은 데이터 복제를 위해 추가적인 시간과 비용이 소요. 운영 복잡성을 증가시킬 수 있다.

C. AWS Snowball Edge Storage Optimized 디바이스 작업을 매일 예약하여 각 사이트에서 가장 가까운 리전으로 데이터를 전송하고, S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사: Snowball Edge는 물리적 장치를 사용하여 데이터를 전송하는 방법으로, 대량의 데이터를 전송할 때 유용하지만 매일 데이터 전송에는 적합하지 않다. 운영 복잡성이 증가하고, 물리적 장치 관리가 필요.

D. 각 사이트의 데이터를 가장 가까운 리전의 Amazon EC2 인스턴스로 업로드하고, Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장한 후, 정기적으로 EBS 스냅샷을 만들어 대상 S3 버킷이 포함된 리전에 복사한 후 해당 리전에서 EBS 볼륨을 복원: 이 방법은 EBS 스냅샷과 복원 과정을 포함하여 매우 복잡.

운영 복잡성이 크게 증가하고, 데이터 전송 속도도 느릴 수 있다.

문제 2

  1.  회사
    1. 독점 애플리케이션의 로그 파일을 분석할 수 있는 능력이 필요.
    2. 로그는 Amazon S3 버킷에 JSON 형식으로 저장됨. 
    3. 쿼리는 간단하고 주문형으로 실행됨.
  2. 요구사항
    1. 기존 아키텍처에 대한 최소한의 변경으로 분석을 수행해야 함.
    2. 최소한의 운영 오버헤드로 요구 사항 충족시켜야 함.

  3. => Amazon S3 와 함께 Amazon Athena를 직접 사용해 필요에 따라 쿼리 실행한다.
  4. 개념 설명

Amazon Athena:

Amazon Athena는 Amazon S3에 저장된 데이터를 분석할 수 있는 서버리스 대화형 쿼리 서비스.

SQL을 사용하여 데이터를 직접 쿼리할 수 있으며, 설정이나 관리가 필요하지 않다.

데이터가 이미 S3에 JSON 형식으로 저장되어 있기 때문에 Athena를 사용하여 간단하게 쿼리를 실행할 수 있다.

Athena는 주문형 쿼리에 매우 적합하며, 사용한 만큼만 비용을 지불하면 됨.

 

왜 다른 옵션이 아닌가?

 

A. Amazon Redshift를 사용하여 모든 콘텐츠를 한 곳에 로드하고 필요에 따라 SQL 쿼리를 실행: Amazon Redshift는 데이터 웨어하우스로, 대규모 데이터 분석에 적합하지만 설정과 관리가 필요.

기존 아키텍처에 데이터를 로드하고 유지보수하는 과정이 추가되므로 운영 오버헤드가 증가.

 

B. Amazon CloudWatch Logs를 사용하여 로그를 저장. Amazon CloudWatch 콘솔에서 필요에 따라 SQL 쿼리를 실행합니다: Amazon CloudWatch Logs는 주로 애플리케이션 모니터링과 로그 관리를 위해 사용되며, SQL 쿼리를 직접 실행하는 데는 적합하지 않다.

JSON 형식의 로그 파일 분석에는 적합하지 않다.

 

D. AWS Glue를 사용하여 로그를 분류합니다. Amazon EMR에서 임시 Apache Spark 클러스터를 사용하여 필요에 따라 SQL 쿼리를 실행합니다: AWS Glue와 Amazon EMR은 복잡한 데이터 처리와 대규모 데이터 분석에 적합하지만, 설정과 관리가 필요하며 운영 오버헤드가 크다.

간단한 주문형 쿼리에는 과도한 솔루션.

문제 3

  1.  회사
    1. AWS Organizations를 사용해 여러 부서의 여러 AWS 계정을 관리함.
    2. 관리 계정에는 프로젝트 보고서가 포함된 Amazon S3 버킷이 있음.
  2. 요구사항
    1. 이 S3 버킷에 대한 액세스를 AWS Organizations의 조직 내 계정 사용자로만 제한하려고 함.
    2. 최소한의 운영 오버헤드로 이러한 요구사항 충족시켜야 함.

  3. => 조직 ID에 대한 참조와 함께 AWS PrincipalOrgID 전역 조건 키를 S3 버킷 정책에 추가한다.

문제 4

  1.  회사
    1. 애플리케이션은 VPC의 Amazon EC2 인스턴스에서 실행됨.
    2. 애플리케이션은 Amazon S3 버킷에 저장된 로그를 처리함.
  2. 요구사항
    1. EC2 인스턴스는 인터넷 연결 없이 S3 버킷에 액세스해야 함.

  3. => S3 버킷에 대한 게이트웨이 VPC 엔드포인트를 생성한다. 

문제 5

  1.  회사
    1. 사용자 업로드 문서를 Amazon EBS 볼륨에 저장하는 단일 Amazon EC2 인스턴스를 사용해 AWS에서 웹 애플리케이션을 호스팅하고 있음.
    2. 더 나은 확장성과 가용성을 위해 이 회사는 아키텍처를 복제하고 다른 가용 영역에 두 번째 EC2 인스턴스와 EBS 볼륨을 생성하여 Application Load Balancer 뒤에 배치했음.
    3. 이 변경을 완료한 후 사용자는 웹 사이트를 새로 고칠 때마다 문서의 일부 또는 다른 하위 집합을 볼 수 있지만 모든 문서를 동시에 볼 수는 없다고 보고했음.
  2. 요구사항
    1. 솔루션 설계자는 사용자가 모든 문서를 한 번에 볼 수 있도록 무엇을 제안해야 하나?

  3. => 두 EBS 볼륨의 데이터를 Amazon EFS로 복사함. 새 문서를 Amazon EFS에 저장하도록 애플리케이션을 수정한다.

문제 6

  1.  회사
    1. 회사는 NFS를 사용해 온프레미스 네트워크 연결 스토리지에 대용량 비디오 파일을 저장함.
    2. 각 비디오 파일의 크기 범위는 1MB 에서 500GB이다.
    3. 총 스토리지는 70TB이며 더 이상 증가하지 않음.
    4. 회사는 비디오 파일을 Amazon S3로 마이그레이션하기로 결정함.
  2. 요구사항
    1. 가능한 한 최소한의 네트워크 대역폭을 사용해야 함.
    2. 가능한 한 빨리 비디오 파일 마이그레이션해야 함.

  3. => AWS Snowball Edge 작업을 생성한다. 온프레미스에서 Snowball Edge 장치를 받는다. Snowball Edge 클라이언트를 사용해 장치로 데이터를 전송한다. AWS가 데이터를 Amazon S3로 가져올 수 있도록 디바이스를 반환한다.

문제 7

  1.  회사
    1. 회사에 들어오는 메시지를 수집하는 응용 프로그램이 있다.
    2. 그러면 수십 개의 다른 애플리케이션과 마이크로서비스이러한 메시지를 빠르게 소비한다.
    3. 메시지 수는 급격하게 변하며 때로는 초당 100,000 개로 갑자기 증가하기도 한다.
  2. 요구사항
    1. 솔루션을 분리하고 확장성을 높이고자 한다.

  3. => 여러 Amazon Simple Queue Service(Amazon SOS) 구독이 있는 Amazon Simple Notification Service(Amazon SNS) 주제에 메시지를 게시한다. 

문제 8

  1.  회사
    1. 회사에서 분산 애플리케이션을 AWS로 마이그레이션 하고 있음.
    2. 애플리케이션은 다양한 워크로드를 처리함.
    3. 레거시 플랫폼은 여러 컴퓨팅 노드에서 작업을 조정하는 기본 서버로 구성됨.
  2. 요구사항
    1. 이 회사는 탄력성과 확장성을 극대화하는 솔루션으로 애플리케이션을 현대화하려고 함.

  3. => 작업의 대상으로 Amazon Simple Queue Service(Amazon SQS) 대기열을 구성한다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현한다. 대기열 크기에 따라 EC2 Auto Scaling을 구성한다.

문제 9

  1.  회사
    1. 데이터 센터에서 SMB 파일 서버를 실행하고 있다.
    2. 파일 서버는 파일이 생성된 후 처음 며칠 동안 자주 액세스하는 대용량 파일을 저장함.
    3. 7일이 지나면 파일에 거의 액세스하지 않음.
    4. 총 데이터 크기가 증가하고 있으며 회사의 총 저장 용량에 가깝다.
  2. 요구사항
    1. 가장 최근에 액세스한 파일에 대한 저지연 액세스를 잃지 않으면서 회사의 사용 가능한 저장 공간을 늘려야 함.
    2. 향후 스토리지 문제를 방지하기 위해 파일 수명 주기 관리도 제공해야 함.

  3. => Amazon S3 파일 게이트웨이를 생성하여 회사의 스토리지 공간을 확장한다. S3 수명 주기 정책을 생성하여 7일 후에 데이터를 S3 Glacier Deep Archive로 전환한다.

문제 10

  1.  회사
    1. AWS에서 전자 상거래 웹 애플리케이션을 구축하고 있다.
    2. 애플리케이션은 처리할 Amazon API Gateway REST API에 새 주문에 대한 정보를 보낸다.
  2. 요구사항
    1. 회사는 주문이 접수된 순서대로 처리되길 원함.

  3. => API Gateway 통합을 사용해 애플리케이션이 주문을 수신할 때 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 메시지를 보낸다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS FIFO 대기열을 구성한다.
반응형