practical-data-pipeline
Search
⌃
K
Practical Data Pipeline
시작 전에 드리는 당부의 말
01 - 데이터 인프라
1.1 데이터 파이프라인
1.2 데이터 입수 (Ingestion)
1.2 데이터 가공 (Processing)
1.3 데이터 저장 (Storage)
1.4 데이터 분석 (Analysis)
02 - 데이터 처리
2.1 데이터 처리
2.2 배치 (Batch) 처리
2.3 워크플로우 (Workflow) 관리
2.4 스트림 (Stream) 처리
04 - 데이터 스토리지
4.1 Kafka
4.2 Redis
4.3 RDB (MySQL)
4.4 ElasticSearch
4.5 KV Storage (DynamoDB)
4.6 Druid
05 - 데이터 애플리케이션
5.1 데이터 서비스
5.2 통계 서비스
5.3 추천 서비스
5.4 A/B 테스팅
08 - Case Study
Week 1 - Data Pipeline
Week 2 - EMR & Kubernetes
Week 3 - Metastore
Week 4 - KV & Delta Storage
Week 5 - Kafka Rebalancing
Week 6 - ML Pipeline
09 - 설치 및 환경 구성
Spark 설치 및 환경 구성
Flink 설치 및 환경 구성
Kafka 설치 및 환경 구성
MySQL 설치 및 환경 구성
DynamoDB 사용을 위한 환경 구성
ElasticSearch 설치 및 환경 구성
Presto 설치 및 환경 구성
Druid 설치 및 환경 구성
Powered By
GitBook
Comment on page
Week 1 - Data Pipeline
Practical Spark 의 이론 과정입니다.
05 - 데이터 애플리케이션 - Previous
5.4 A/B 테스팅
Next - 08 - Case Study
Week 2 - EMR & Kubernetes
Last modified
2yr ago