검증된 답변이 포함된 100% 실제 Google 전문가-데이터 엔지니어 시험 문제 [Q44-Q64]에 즉시 액세스하세요.

이 게시물 평가하기

검증된 답변이 포함된 100% 실제 구글 전문가-데이터 엔지니어 시험 문제에 즉시 액세스하세요.

최신 전문 데이터 엔지니어 시험 문제 준비를위한 시험 덤프

질문 44
신경망 모델을 훈련하는 데 며칠이 걸립니다. 학습 속도를 높이고 싶습니다. 어떻게 하면 될까요?

 
 
 
 

질문 45
다음 중 희소 벡터의 값의 예는 어느 것입니까? (정답 2개를 선택하세요.)

 
 
 
 

질문 46
물류 회사를 운영하면서 차량 기반 센서의 이벤트 전송 안정성을 개선하고자 합니다. 이러한 이벤트를 수집하기 위해 전 세계에 소규모 데이터 센터를 운영하고 있지만, 이벤트 수집 인프라에서 이벤트 처리 인프라로 연결되는 임대 회선은 예측할 수 없는 지연 시간으로 불안정합니다. 가장 비용 효율적인 방법으로 이 문제를 해결하고 싶습니다. 어떻게 해야 할까요?

 
 
 
 

질문 47
개인 사용자 데이터가 포함된 민감한 프로젝트에서 작업하고 있습니다. 내부적으로 작업을 보관하기 위해 Google Cloud Platform에 프로젝트를 설정했습니다. 외부 컨설턴트가 프로젝트의 Google Cloud 데이터 흐름 파이프라인에서 복잡한 변환을 코딩하는 데 도움을 줄 것입니다. 사용자의 개인정보는 어떻게 유지해야 하나요?

 
 
 
 

질문 48
신경망 모델을 훈련하는 데 며칠이 걸립니다. 학습 속도를 높이고 싶습니다. 어떻게 하면 될까요?

 
 
 
 

질문 49
클라우드 데이터프록 클러스터를 관리하고 있습니다. 클러스터에서 진행 중인 작업을 잃지 않고 비용을 최소화하면서 작업을 더 빠르게 실행해야 합니다. 어떻게 해야 할까요?

 
 
 
 

질문 50
전 세계 물류창고에서 온도 데이터를 수집하기 위해 10,000개의 새로운 사물 인터넷 디바이스를 배포하고 있습니다. 이러한 대규모 데이터 세트를 실시간으로 처리, 저장, 분석해야 합니다.
어떻게 해야 하나요?

 
 
 
 

질문 51
다음 조건을 충족하기 위해 클라우드 네이티브 기록 데이터 처리 시스템을 설계하고 있습니다:
* 분석 대상 데이터는 CSV, Avro, PDF 형식이며, Cloud Dataproc, BigQuery, Compute Engine 등 여러 분석 도구에서 액세스할 수 있습니다.
* 스트리밍 데이터 파이프라인은 매일 새로운 데이터를 저장합니다.
* 성능은 솔루션의 요소가 아닙니다.
* 솔루션 설계는 가용성을 극대화해야 합니다.
이 솔루션을 위한 데이터 스토리지를 어떻게 설계해야 할까요?

 
 
 
 

질문 52
회사에서 많은 수의 뉴런과 레이어가 있는 TensorFlow 중립 네트워크 모델을 구축했습니다. 이 모델은 학습 데이터에 잘 맞습니다. 하지만 새로운 데이터에 대해 테스트했을 때 성능이 좋지 않습니다. 이 문제를 해결하기 위해 어떤 방법을 사용할 수 있나요?

 
 
 
 

질문 53
귀하는 기업이 경제 동향을 파악하도록 돕는 경제 컨설팅 회사에서 일하고 있습니다. 분석의 일환으로 고객 데이터와 빵, 휘발유, 우유 등 가장 많이 판매되는 100가지 상품의 평균 가격의 상관관계를 파악하기 위해 Google BigQuery를 사용합니다. 이러한 상품의 평균 가격은 30분마다 업데이트됩니다. 이 데이터를 최신 상태로 유지하여 가능한 한 저렴하게 BigQuery의 다른 데이터와 결합할 수 있기를 원합니다. 어떻게 해야 할까요?

 
 
 
 

질문 54
다음 중 빅테이블 액세스 역할과 관련하여 사실이 아닌 것은 무엇인가요?

 
 
 
 

질문 55
6개월 이내에 온프레미스 스토리지 어플라이언스에서 클라우드 스토리지로 2PB의 기록 데이터를 이전해야 하며, 아웃바운드 네트워크 용량은 초당 20Mb/s로 제한되어 있습니다. 이 데이터를 어떻게 클라우드 스토리지로 마이그레이션해야 하나요?

 
 
 
 

질문 56
데이터 흐름 프로그램을 로컬에서 실행하는 데 사용할 수 있는 Java SDK 클래스는 무엇인가요?

 
 
 
 

질문 57
세 가지 데이터 처리 작업을 개발했습니다. 하나는 클라우드 데이터 흐름 파이프라인을 실행하여 클라우드 스토리지에 업로드된 데이터를 변환하고 결과를 BigQuery에 씁니다. 두 번째는 온-프레미스 서버에서 데이터를 수집하여 Cloud Storage에 업로드합니다. 세 번째는 타사 데이터 공급자로부터 정보를 가져와서 클라우드 저장소에 업로드하는 클라우드 데이터 흐름 파이프라인입니다. 이 세 가지 워크플로우의 실행을 예약 및 모니터링하고 필요할 때 수동으로 실행할 수 있어야 합니다. 어떻게 해야 하나요?

 
 
 
 

질문 58
다음 중 BigQuery 캐싱에 대한 설명 중 사실에 부합하는 것은 무엇인가요?

 
 
 
 

질문 59
Apache Hadoop 클러스터에서 실행할 회사의 ETL 파이프라인을 작성해야 할 책임이 있습니다. 그리고
파이프라인을 사용하려면 약간의 체크포인트와 파이프라인 분할이 필요합니다. 파이프라인을 작성할 때 어떤 방법을 사용해야 하나요?
파이프라인을 사용하시나요?

 
 
 
 

질문 60
머신 러닝 데이터 세트를 학습 데이터와 테스트 데이터로 분리해야 하는 이유는 무엇인가요?

 
 
 
 

질문 61
신경망이 범주형 기능에서 범주 간의 관계를 학습하도록 하려면 어떻게 해야 하나요?

 
 
 
 

질문 62
Cloud Bigtable에 의존하는 성능 테스트를 실행하는 경우 아래 하나를 제외한 모든 선택 항목이 권장 단계입니다. 권장되지 않는 단계는 무엇인가요?

 
 
 
 

질문 63
MJTelco 사례 연구
회사 개요
MJTelco는 전 세계에서 빠르게 성장하고 있는 소외된 시장에 네트워크를 구축하려는 스타트업입니다. 이 회사는 혁신적인 광통신 하드웨어에 대한 특허를 보유하고 있습니다. 이 특허를 기반으로 저렴한 하드웨어로 안정적인 고속 백본 링크를 많이 만들 수 있습니다.
회사 배경
숙련된 통신사 경영진이 설립한 MJTelco는 원래 우주에서의 통신 문제를 극복하기 위해 개발된 기술을 사용합니다. 운영의 기본은 실시간 분석을 주도하고 머신 러닝을 통합하여 토폴로지를 지속적으로 최적화하는 분산형 데이터 인프라를 구축하는 것입니다. 하드웨어가 저렴하기 때문에 역동적인 지역 정치가 위치 가용성과 비용에 미치는 영향을 고려할 수 있도록 네트워크를 과도하게 배포할 계획입니다.
이 회사의 관리 및 운영 팀은 전 세계 곳곳에 위치하여 시스템에서 데이터 소비자와 제공자 간의 다대다 관계를 형성하고 있습니다. 신중한 검토 끝에 퍼블릭 클라우드가 이러한 요구 사항을 지원하는 완벽한 환경이라고 판단했습니다.
솔루션 개념
MJTelco는 실험실에서 성공적인 개념 증명(PoC) 프로젝트를 실행하고 있습니다. 여기에는 두 가지 주요 요구 사항이 있습니다:
* PoC를 확장하고 강화하여 다음과 같은 규모로 증가할 때 생성되는 훨씬 더 많은 데이터 흐름을 지원합니다.
50,000회 설치.
* 머신 러닝 주기를 개선하여 토폴로지 정의를 제어하는 데 사용하는 동적 모델을 검증하고 개선합니다.
또한 개발/테스트, 스테이징, 프로덕션의 세 가지 운영 환경을 사용하여 실험을 실행하고 새로운 기능을 배포하며 프로덕션 고객에게 서비스를 제공하는 데 필요한 요구 사항을 충족할 것입니다.
비즈니스 요구 사항
* 예측할 수 없는 분산된 통신 사용자 커뮤니티에서 필요할 때 언제 어디서나 리소스를 인스턴스화하여 최소한의 비용으로 프로덕션 환경을 확장할 수 있습니다.
* 최첨단 머신 러닝 및 분석을 보호하기 위해 독점 데이터의 보안을 보장합니다.
* 분산된 연구 인력으로부터 분석에 필요한 데이터에 안정적이고 시기적절하게 액세스 제공
* 고객에게 영향을 주지 않으면서 머신러닝 모델의 신속한 반복을 지원하는 격리된 환경을 유지합니다.
기술 요구 사항
* 원격 측정 데이터의 안전하고 효율적인 전송 및 저장 보장
* 인스턴스를 빠르게 확장하여 각각 여러 개의 플로우를 가진 10,000~100,000개의 데이터 공급업체를 지원할 수 있습니다.
* 최대 2년간 저장된 데이터를 추적하는 데이터 테이블에 대한 분석 및 프레젠테이션이 가능합니다.
100m 기록/일
* 원격 분석 흐름과 프로덕션 학습 주기 모두에서 데이터 파이프라인 문제 인식에 초점을 맞춘 모니터링 인프라의 신속한 반복을 지원합니다.
CEO 성명서
저희의 비즈니스 모델은 특허, 분석 및 동적 머신 러닝에 의존합니다. 우리의 저렴한 하드웨어는 높은 안정성으로 구성되어 있어 비용 측면에서 이점을 제공합니다. 안정성과 용량 약속을 지키기 위해 대규모 분산 데이터 파이프라인을 신속하게 안정화해야 합니다.
CTO 성명서
퍼블릭 클라우드 서비스는 광고된 대로 작동해야 합니다. 확장 가능하고 데이터를 안전하게 보호하는 리소스가 필요합니다.
또한 데이터 과학자가 신중하게 연구하고 모델을 신속하게 조정할 수 있는 환경이 필요합니다.
데이터 처리를 위해 자동화에 의존하기 때문에 반복 작업 시 개발 및 테스트 환경도 함께 작동해야 합니다.
CFO 성명서
프로젝트 규모가 너무 커서 데이터와 분석에 필요한 하드웨어와 소프트웨어를 유지 관리할 수 없습니다. 또한 수많은 데이터 피드를 모니터링할 운영팀을 둘 여유가 없으므로 자동화와 인프라에 의존할 것입니다. Google Cloud의 머신 러닝을 통해 정량적 연구자들은 데이터 파이프라인의 문제 대신 가치가 높은 문제에 집중할 수 있게 될 것입니다.
MJTelco는 지난 2년간의 기록을 분석할 수 있는 스키마를 구글 빅테이블에 만들어야 합니다. 들어오는 각 레코드는 15분마다 전송되며 기기의 고유 식별자와 데이터 레코드가 포함되어 있습니다. 가장 일반적인 쿼리는 특정 날짜의 특정 디바이스에 대한 모든 데이터에 대한 쿼리입니다. 어떤 스키마를 사용해야 하나요?

 
 
 
 
 

질문 64
Google Cloud에서 추천 엔진을 사용하는 애플리케이션을 개발 중입니다. 솔루션
는 과거 조회수를 기반으로 고객에게 새 동영상을 표시해야 합니다. 솔루션은 다음에 대한 레이블을 생성해야 합니다.
고객이 시청한 동영상의 엔티티를 파악할 수 있어야 합니다. 매우 빠른 필터링 기능을 제공할 수 있어야 합니다.
수 TB에 달하는 다른 고객 선호도 데이터를 기반으로 제안합니다. 어떻게 해야 할까요?

 
 
 
 

Google 전문가-데이터 엔지니어 시험의 최신 및 유효한 문제를 다운로드하세요: https://www.passtestking.com/Google/Professional-Data-Engineer-practice-exam-dumps.html

관리자

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다

아래 이미지에서 텍스트를 입력합니다.
 

댓글 게시

ko_KRKorean