익명 사용자
로그인하지 않음
토론
기여
계정 만들기
로그인
IT 위키
검색
아파치 스파크 캐싱
편집하기
IT 위키
이름공간
문서
토론
더 보기
더 보기
문서 행위
읽기
편집
원본 편집
역사
경고:
로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다.
로그인
하거나
계정을 생성하면
편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.
스팸 방지 검사입니다. 이것을 입력하지
마세요
!
고급
특수 문자
도움말
문단 제목
2단계
3단계
4단계
5단계
형식
넣기
라틴 문자
확장 라틴 문자
IPA 문자
기호
그리스 문자
그리스어 확장
키릴 문자
아랍 문자
아랍어 확장
히브리 문자
뱅골어
타밀어
텔루구어 문자
싱할라 문자
데바나가리어
구자라트 문자
태국어
라오어
크메르어
캐나다 원주민 언어
룬 문자
Á
á
À
à
Â
â
Ä
ä
Ã
ã
Ǎ
ǎ
Ā
ā
Ă
ă
Ą
ą
Å
å
Ć
ć
Ĉ
ĉ
Ç
ç
Č
č
Ċ
ċ
Đ
đ
Ď
ď
É
é
È
è
Ê
ê
Ë
ë
Ě
ě
Ē
ē
Ĕ
ĕ
Ė
ė
Ę
ę
Ĝ
ĝ
Ģ
ģ
Ğ
ğ
Ġ
ġ
Ĥ
ĥ
Ħ
ħ
Í
í
Ì
ì
Î
î
Ï
ï
Ĩ
ĩ
Ǐ
ǐ
Ī
ī
Ĭ
ĭ
İ
ı
Į
į
Ĵ
ĵ
Ķ
ķ
Ĺ
ĺ
Ļ
ļ
Ľ
ľ
Ł
ł
Ń
ń
Ñ
ñ
Ņ
ņ
Ň
ň
Ó
ó
Ò
ò
Ô
ô
Ö
ö
Õ
õ
Ǒ
ǒ
Ō
ō
Ŏ
ŏ
Ǫ
ǫ
Ő
ő
Ŕ
ŕ
Ŗ
ŗ
Ř
ř
Ś
ś
Ŝ
ŝ
Ş
ş
Š
š
Ș
ș
Ț
ț
Ť
ť
Ú
ú
Ù
ù
Û
û
Ü
ü
Ũ
ũ
Ů
ů
Ǔ
ǔ
Ū
ū
ǖ
ǘ
ǚ
ǜ
Ŭ
ŭ
Ų
ų
Ű
ű
Ŵ
ŵ
Ý
ý
Ŷ
ŷ
Ÿ
ÿ
Ȳ
ȳ
Ź
ź
Ž
ž
Ż
ż
Æ
æ
Ǣ
ǣ
Ø
ø
Œ
œ
ß
Ð
ð
Þ
þ
Ə
ə
서식 지정
링크
문단 제목
목록
파일
각주
토론
설명
입력하는 내용
문서에 나오는 결과
기울임꼴
''기울인 글씨''
기울인 글씨
굵게
'''굵은 글씨'''
굵은 글씨
굵고 기울인 글씨
'''''굵고 기울인 글씨'''''
굵고 기울인 글씨
'''아파치 스파크 캐싱'''(Apache Spark Caching)은 '''RDD(Resilient Distributed Dataset)''' 또는 '''데이터프레임(DataFrame)'''을 메모리에 저장하여 반복적인 연산 시 성능을 향상시키는 기법이다. 스파크는 기본적으로 '''지연 실행(Lazy Evaluation)'''을 사용하므로, 동일한 데이터를 여러 번 사용할 경우 캐싱을 통해 중복 연산을 방지할 수 있다. ==개요== 스파크에서 RDD나 데이터프레임을 캐싱하면, 디스크에서 다시 읽거나 동일한 연산을 반복하지 않고 메모리에 저장된 데이터를 재사용할 수 있다. 이를 통해 '''I/O 비용 절감''', '''반복 연산 최적화''', '''쿼리 성능 향상''' 등의 효과를 얻을 수 있다. *'''반복적으로 사용되는 데이터 저장''' *'''메모리를 활용한 빠른 접근''' *'''쿼리 성능 및 연산 속도 향상''' ==캐싱과 퍼시스팅== 스파크에서는 '''cache()'''와 '''persist()''' 두 가지 방식으로 데이터를 캐싱할 수 있다. ===cache()=== *RDD 또는 데이터프레임을 '''기본 스토리지 레벨(MEMORY_AND_DISK)'''로 저장. *기본적으로 '''메모리에 저장'''하지만, 메모리가 부족하면 디스크에 저장. <syntaxhighlight lang="python"> df = spark.read.csv("data.csv", header=True, inferSchema=True) df.cache() # 캐싱 적용 df.count() # 첫 실행 시 캐싱 수행 df.show() # 캐시된 데이터 사용 </syntaxhighlight> ===persist()=== *캐싱을 더 세밀하게 제어할 수 있도록 다양한 '''스토리지 레벨(Storage Level)'''을 제공. *기본적으로 '''MEMORY_ONLY''' 옵션을 사용하지만, 다른 저장 방식 선택 가능. <syntaxhighlight lang="python"> from pyspark import StorageLevel df.persist(StorageLevel.MEMORY_AND_DISK) df.count() # 캐싱 수행 </syntaxhighlight> ==스토리지 레벨(Storage Levels)== 스파크에서는 캐싱 데이터를 저장하는 방식을 선택할 수 있다. {| class="wikitable" |- !스토리지 레벨!!설명 |- |MEMORY_ONLY||데이터를 메모리에 저장 (디스크 저장 없음) |- |MEMORY_AND_DISK||메모리가 부족하면 디스크에 저장 |- |MEMORY_ONLY_SER||메모리에 직렬화된(Serialized) 형태로 저장하여 공간 절약 |- |MEMORY_AND_DISK_SER||메모리에 직렬화하여 저장하고, 부족하면 디스크 사용 |- |DISK_ONLY||메모리에 저장하지 않고, 디스크에만 저장 |- |OFF_HEAP||JVM 힙(heap) 외부에 저장하여 GC(가비지 컬렉션) 영향을 줄임 |} ==캐싱의 필요성== 스파크에서 캐싱을 사용하면 다음과 같은 장점이 있다. *'''반복 연산 최적화''' **동일한 데이터에 대해 여러 번 연산이 수행될 경우, 캐싱을 통해 중복 연산 방지. *'''디스크 I/O 최소화''' **데이터를 반복적으로 읽지 않고 메모리에서 직접 접근. *'''쿼리 성능 향상''' **복잡한 연산을 수행하는 데이터프레임을 캐싱하여 실행 속도를 증가. ==캐싱 해제== 캐싱된 데이터를 더 이상 사용하지 않을 경우 '''unpersist()'''를 호출하여 메모리를 해제할 수 있다.<syntaxhighlight lang="python"> df.unpersist() # 메모리에서 캐싱 해제 </syntaxhighlight> ==캐싱 최적화 기법== 스파크에서 효과적으로 캐싱을 활용하는 방법은 다음과 같다. *'''반복적으로 사용되는 데이터만 캐싱''' **모든 데이터에 캐싱을 적용하면 메모리 낭비가 발생할 수 있음. *'''적절한 스토리지 레벨 선택''' **MEMORY_ONLY가 가장 빠르지만, 메모리 부족 시 MEMORY_AND_DISK가 유용. *'''캐싱 후 첫 번째 액션 수행''' **cache() 또는 persist()는 지연 실행되므로, count() 또는 show() 등을 호출하여 즉시 저장. ==응용== 스파크 캐싱은 다양한 데이터 처리 작업에서 활용된다. *'''ETL(Extract, Transform, Load)''' **변환된 데이터를 캐싱하여 여러 단계에서 재사용. *'''데이터 분석 및 머신러닝''' **반복적인 데이터 연산 및 모델 훈련 속도 향상. *'''스트리밍 처리''' **Spark Streaming에서 이전 데이터 상태를 유지하는 데 사용. ==같이 보기== *[[아파치 스파크]] *[[RDD(Resilient Distributed Dataset)]] *[[스파크 데이터 프레임]] *[[분산 컴퓨팅]] ==참고 문헌== *Zaharia, Matei, et al. "Spark: Cluster Computing with Working Sets." USENIX, 2010. *Chambers, Bill, and Zaharia, Matei. "Spark: The Definitive Guide." O'Reilly Media, 2018. [[분류:아파치 스파크]] [[분류:분산 컴퓨팅]]
요약:
IT 위키에서의 모든 기여는 크리에이티브 커먼즈 저작자표시-비영리-동일조건변경허락 라이선스로 배포된다는 점을 유의해 주세요(자세한 내용에 대해서는
IT 위키:저작권
문서를 읽어주세요). 만약 여기에 동의하지 않는다면 문서를 저장하지 말아 주세요.
또한, 직접 작성했거나 퍼블릭 도메인과 같은 자유 문서에서 가져왔다는 것을 보증해야 합니다.
저작권이 있는 내용을 허가 없이 저장하지 마세요!
취소
편집 도움말
(새 창에서 열림)
둘러보기
둘러보기
대문
최근 바뀜
광고
위키 도구
위키 도구
특수 문서 목록
문서 도구
문서 도구
사용자 문서 도구
더 보기
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보
문서 기록