익명 사용자
로그인하지 않음
토론
기여
계정 만들기
로그인
IT 위키
검색
하이퍼파라미터
편집하기
IT 위키
이름공간
문서
토론
더 보기
더 보기
문서 행위
읽기
편집
원본 편집
역사
경고:
로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다.
로그인
하거나
계정을 생성하면
편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.
스팸 방지 검사입니다. 이것을 입력하지
마세요
!
고급
특수 문자
도움말
문단 제목
2단계
3단계
4단계
5단계
형식
넣기
라틴 문자
확장 라틴 문자
IPA 문자
기호
그리스 문자
그리스어 확장
키릴 문자
아랍 문자
아랍어 확장
히브리 문자
뱅골어
타밀어
텔루구어 문자
싱할라 문자
데바나가리어
구자라트 문자
태국어
라오어
크메르어
캐나다 원주민 언어
룬 문자
Á
á
À
à
Â
â
Ä
ä
Ã
ã
Ǎ
ǎ
Ā
ā
Ă
ă
Ą
ą
Å
å
Ć
ć
Ĉ
ĉ
Ç
ç
Č
č
Ċ
ċ
Đ
đ
Ď
ď
É
é
È
è
Ê
ê
Ë
ë
Ě
ě
Ē
ē
Ĕ
ĕ
Ė
ė
Ę
ę
Ĝ
ĝ
Ģ
ģ
Ğ
ğ
Ġ
ġ
Ĥ
ĥ
Ħ
ħ
Í
í
Ì
ì
Î
î
Ï
ï
Ĩ
ĩ
Ǐ
ǐ
Ī
ī
Ĭ
ĭ
İ
ı
Į
į
Ĵ
ĵ
Ķ
ķ
Ĺ
ĺ
Ļ
ļ
Ľ
ľ
Ł
ł
Ń
ń
Ñ
ñ
Ņ
ņ
Ň
ň
Ó
ó
Ò
ò
Ô
ô
Ö
ö
Õ
õ
Ǒ
ǒ
Ō
ō
Ŏ
ŏ
Ǫ
ǫ
Ő
ő
Ŕ
ŕ
Ŗ
ŗ
Ř
ř
Ś
ś
Ŝ
ŝ
Ş
ş
Š
š
Ș
ș
Ț
ț
Ť
ť
Ú
ú
Ù
ù
Û
û
Ü
ü
Ũ
ũ
Ů
ů
Ǔ
ǔ
Ū
ū
ǖ
ǘ
ǚ
ǜ
Ŭ
ŭ
Ų
ų
Ű
ű
Ŵ
ŵ
Ý
ý
Ŷ
ŷ
Ÿ
ÿ
Ȳ
ȳ
Ź
ź
Ž
ž
Ż
ż
Æ
æ
Ǣ
ǣ
Ø
ø
Œ
œ
ß
Ð
ð
Þ
þ
Ə
ə
서식 지정
링크
문단 제목
목록
파일
각주
토론
설명
입력하는 내용
문서에 나오는 결과
기울임꼴
''기울인 글씨''
기울인 글씨
굵게
'''굵은 글씨'''
굵은 글씨
굵고 기울인 글씨
'''''굵고 기울인 글씨'''''
굵고 기울인 글씨
[[분류:인공지능]][[분류:기술사 기출]] ;Hyperparameter; Hyper-parameter; Hyper Parameter; 초모수 하이퍼파라미터(hyperparameter)는 머신 러닝 모델의 학습 과정에서 사람이 사전에 설정해야 하는 값으로, 모델의 성능에 큰 영향을 미치지만 학습 데이터로부터 직접적으로 학습되지 않는다. 하이퍼파라미터는 모델의 구조나 학습 방법을 제어하는 변수이며, 일반적으로 실험적 탐색을 통해 최적화된다. ;* 기계학습에서 학습의 기준이 되는 주요 변수 ;* 주로 자동으로 선정되지 않고 [[HITL|인간이 수작업]]으로 설정해줘야 하는 값 == 개요== 하이퍼파라미터는 모델 내부에서 자동으로 학습되는 파라미터(예: 가중치, 편향)와 달리, 외부에서 설정되어 모델의 학습 방식과 일반화 능력에 영향을 준다. 모델의 성능을 향상시키기 위해 하이퍼파라미터 튜닝(hyperparameter tuning)이 필수적인 과정으로 여겨진다. ==주요 하이퍼파라미터 예시== *선형 회귀 **정규화 계수 (alpha, lambda) *결정 트리 / 랜덤 포레스트 **트리의 최대 깊이 (max_depth) **분기 최소 샘플 수 (min_samples_split) **트리 개수 (n_estimators) *SVM **커널 함수 종류 (kernel) **정규화 계수 C **감마 (gamma) *신경망 (Neural Network) **학습률 (learning rate) **은닉층 수 및 각 층의 노드 수 **에포크 수 (epochs), 배치 크기 (batch size) **옵티마이저 종류 (Adam, SGD 등) **드롭아웃 비율 (dropout rate) ==하이퍼파라미터 vs 파라미터== *파라미터 **학습을 통해 최적화되는 값 (예: 선형 회귀의 가중치, 신경망의 weight/bias) *하이퍼파라미터 **학습 전에 사람이 지정하는 설정값 (예: 학습률, 트리 깊이) ==튜닝 방법== *그리드 서치 (Grid Search) **하이퍼파라미터 값의 조합을 모두 탐색하여 최적 조합을 찾음 **계산 비용이 크지만 간단하고 직관적임 *랜덤 서치 (Random Search) **하이퍼파라미터 공간에서 무작위로 조합을 선택하여 평가 **시간 대비 효율성이 높은 경우가 많음 *베이지안 최적화 **이전 탐색 결과를 기반으로 다음 시도를 조절하는 확률적 접근 **`Optuna`, `Hyperopt` 등의 라이브러리에서 제공 *교차 검증과 결합 **각 하이퍼파라미터 조합에 대해 교차 검증을 적용하여 일반화 성능 평가 ==예시 (scikit-learn)== <syntaxhighlight lang="python"> from sklearn.model_selection import GridSearchCV from sklearn.ensemble import RandomForestClassifier param_grid = { 'n_estimators': [50, 100], 'max_depth': [5, 10], 'min_samples_split': [2, 4] } grid = GridSearchCV(RandomForestClassifier(), param_grid, cv=5) grid.fit(X_train, y_train) print(grid.best_params_) </syntaxhighlight> ==같이 보기== *[[모델 학습]] *[[교차 검증]] *[[과적합]] *[[그리드 서치]] *[[Optuna]] *[[하이퍼파라미터 튜닝]] ==참고 문헌== *Géron, A. (2019). Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow. O'Reilly Media. *Bengio, Y. (2012). Practical recommendations for gradient-based training of deep architectures. Neural Networks: Tricks of the Trade. == 기술사 기출 == * 정보관리기술사 제120회 4교시
요약:
IT 위키에서의 모든 기여는 크리에이티브 커먼즈 저작자표시-비영리-동일조건변경허락 라이선스로 배포된다는 점을 유의해 주세요(자세한 내용에 대해서는
IT 위키:저작권
문서를 읽어주세요). 만약 여기에 동의하지 않는다면 문서를 저장하지 말아 주세요.
또한, 직접 작성했거나 퍼블릭 도메인과 같은 자유 문서에서 가져왔다는 것을 보증해야 합니다.
저작권이 있는 내용을 허가 없이 저장하지 마세요!
취소
편집 도움말
(새 창에서 열림)
둘러보기
둘러보기
대문
최근 바뀜
광고
위키 도구
위키 도구
특수 문서 목록
문서 도구
문서 도구
사용자 문서 도구
더 보기
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보
문서 기록