익명 사용자
로그인하지 않음
토론
기여
계정 만들기
로그인
IT 위키
검색
MapReduce
편집하기
IT 위키
이름공간
문서
토론
더 보기
더 보기
문서 행위
읽기
편집
원본 편집
역사
경고:
로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다.
로그인
하거나
계정을 생성하면
편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.
스팸 방지 검사입니다. 이것을 입력하지
마세요
!
고급
특수 문자
도움말
문단 제목
2단계
3단계
4단계
5단계
형식
넣기
라틴 문자
확장 라틴 문자
IPA 문자
기호
그리스 문자
그리스어 확장
키릴 문자
아랍 문자
아랍어 확장
히브리 문자
뱅골어
타밀어
텔루구어 문자
싱할라 문자
데바나가리어
구자라트 문자
태국어
라오어
크메르어
캐나다 원주민 언어
룬 문자
Á
á
À
à
Â
â
Ä
ä
Ã
ã
Ǎ
ǎ
Ā
ā
Ă
ă
Ą
ą
Å
å
Ć
ć
Ĉ
ĉ
Ç
ç
Č
č
Ċ
ċ
Đ
đ
Ď
ď
É
é
È
è
Ê
ê
Ë
ë
Ě
ě
Ē
ē
Ĕ
ĕ
Ė
ė
Ę
ę
Ĝ
ĝ
Ģ
ģ
Ğ
ğ
Ġ
ġ
Ĥ
ĥ
Ħ
ħ
Í
í
Ì
ì
Î
î
Ï
ï
Ĩ
ĩ
Ǐ
ǐ
Ī
ī
Ĭ
ĭ
İ
ı
Į
į
Ĵ
ĵ
Ķ
ķ
Ĺ
ĺ
Ļ
ļ
Ľ
ľ
Ł
ł
Ń
ń
Ñ
ñ
Ņ
ņ
Ň
ň
Ó
ó
Ò
ò
Ô
ô
Ö
ö
Õ
õ
Ǒ
ǒ
Ō
ō
Ŏ
ŏ
Ǫ
ǫ
Ő
ő
Ŕ
ŕ
Ŗ
ŗ
Ř
ř
Ś
ś
Ŝ
ŝ
Ş
ş
Š
š
Ș
ș
Ț
ț
Ť
ť
Ú
ú
Ù
ù
Û
û
Ü
ü
Ũ
ũ
Ů
ů
Ǔ
ǔ
Ū
ū
ǖ
ǘ
ǚ
ǜ
Ŭ
ŭ
Ų
ų
Ű
ű
Ŵ
ŵ
Ý
ý
Ŷ
ŷ
Ÿ
ÿ
Ȳ
ȳ
Ź
ź
Ž
ž
Ż
ż
Æ
æ
Ǣ
ǣ
Ø
ø
Œ
œ
ß
Ð
ð
Þ
þ
Ə
ə
서식 지정
링크
문단 제목
목록
파일
각주
토론
설명
입력하는 내용
문서에 나오는 결과
기울임꼴
''기울인 글씨''
기울인 글씨
굵게
'''굵은 글씨'''
굵은 글씨
굵고 기울인 글씨
'''''굵고 기울인 글씨'''''
굵고 기울인 글씨
'''MapReduce''' is a programming model and framework designed for processing and generating large datasets in a distributed computing environment. It simplifies the processing of big data by dividing tasks into two primary phases: the '''Map''' phase and the '''Reduce''' phase. Developed by Google, MapReduce has become a foundational concept in distributed data processing systems, such as Apache Hadoop. ==Key Concepts== *'''Map Phase:''' Processes input data and converts it into key-value pairs. Each pair is processed independently, enabling parallelism. *'''Shuffle and Sort Phase:''' Groups and sorts intermediate key-value pairs by their keys, preparing them for the Reduce phase. *'''Reduce Phase:''' Aggregates or processes the sorted key-value pairs to produce the final output. ==How MapReduce Works== MapReduce operates in the following steps: #Input data is divided into smaller splits or chunks for parallel processing. #The '''Map phase''' processes each chunk to generate intermediate key-value pairs. #Intermediate key-value pairs are grouped and sorted by keys in the '''Shuffle and Sort phase'''. #The '''Reduce phase''' aggregates the grouped key-value pairs to generate the final output. #Results are written to distributed storage. ===Example Workflow=== Suppose we want to count the number of occurrences of each word in a large dataset: #The input text is divided into multiple chunks. #In the '''Map phase''', each mapper emits a key-value pair for every word (e.g., "word" → 1). #In the '''Shuffle and Sort phase''', intermediate key-value pairs are grouped by word (e.g., "word" → [1, 1, 1]). #In the '''Reduce phase''', reducers sum the counts for each word (e.g., "word" → 3). #The final counts are written to a file (e.g., "word: 3"). ==Advantages== *'''Scalability:''' Can process massive datasets by distributing tasks across multiple nodes. *'''Fault Tolerance:''' Automatically handles node failures by re-executing failed tasks. *'''Simplicity:''' Abstracts the complexity of distributed processing, allowing developers to focus on the logic of Map and Reduce functions. *'''Parallelism:''' Processes data concurrently, reducing execution time. ==Limitations== *'''High Latency:''' The shuffle and sort phase introduces significant overhead, making MapReduce unsuitable for low-latency tasks. *'''Limited Flexibility:''' Requires problems to be expressed in terms of Map and Reduce, which may not fit all use cases. *'''Iterative Processing:''' Inefficient for iterative tasks, such as machine learning, as each iteration requires reading and writing to disk. ==Applications== MapReduce is widely used in: *'''Data Analytics:''' Processing logs, clickstream data, and web analytics. *'''Search Indexing:''' Building and updating search indexes for search engines. *'''Machine Learning:''' Processing large-scale training datasets. *'''ETL (Extract, Transform, Load):''' Cleaning and transforming large datasets for data warehouses. *'''Big Data Processing:''' Handling large datasets in industries such as finance, healthcare, and telecommunications. ==MapReduce in Apache Hadoop== Apache Hadoop is one of the most popular frameworks for implementing MapReduce. Hadoop extends MapReduce with additional features: *'''Distributed File System (HDFS):''' Provides storage for input and output data. *'''Resource Management (YARN):''' Manages cluster resources and schedules MapReduce tasks. *'''Fault Tolerance:''' Automatically replicates data and re-executes failed tasks. ==Comparison with Other Frameworks== {| class="wikitable" !Feature!!MapReduce (Hadoop)!!Spark!!Flink |- |'''Execution Model'''||Batch Processing||Batch and Stream Processing||Stream Processing |- |'''Latency'''||High||Low||Very Low |- |'''Ease of Use'''||Moderate||High (with APIs like PySpark)||Moderate |- |'''Fault Tolerance'''||High||High||High |- |'''Use Cases'''||ETL, log processing||Machine learning, real-time analytics||Real-time analytics, complex event processing |} ==See Also== *[[Apache Hadoop]] *[[Apache Spark]] *[[Distributed Computing]] *[[Big Data]] *[[ETL Process]] *[[Google File System (GFS)]]
요약:
IT 위키에서의 모든 기여는 크리에이티브 커먼즈 저작자표시-비영리-동일조건변경허락 라이선스로 배포된다는 점을 유의해 주세요(자세한 내용에 대해서는
IT 위키:저작권
문서를 읽어주세요). 만약 여기에 동의하지 않는다면 문서를 저장하지 말아 주세요.
또한, 직접 작성했거나 퍼블릭 도메인과 같은 자유 문서에서 가져왔다는 것을 보증해야 합니다.
저작권이 있는 내용을 허가 없이 저장하지 마세요!
취소
편집 도움말
(새 창에서 열림)
둘러보기
둘러보기
대문
최근 바뀜
광고
위키 도구
위키 도구
특수 문서 목록
문서 도구
문서 도구
사용자 문서 도구
더 보기
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보
문서 기록