익명 사용자
로그인하지 않음
토론
기여
계정 만들기
로그인
IT 위키
검색
K-Nearest Neighbor
편집하기
IT 위키
이름공간
문서
토론
더 보기
더 보기
문서 행위
읽기
편집
원본 편집
역사
경고:
로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다.
로그인
하거나
계정을 생성하면
편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.
스팸 방지 검사입니다. 이것을 입력하지
마세요
!
고급
특수 문자
도움말
문단 제목
2단계
3단계
4단계
5단계
형식
넣기
라틴 문자
확장 라틴 문자
IPA 문자
기호
그리스 문자
그리스어 확장
키릴 문자
아랍 문자
아랍어 확장
히브리 문자
뱅골어
타밀어
텔루구어 문자
싱할라 문자
데바나가리어
구자라트 문자
태국어
라오어
크메르어
캐나다 원주민 언어
룬 문자
Á
á
À
à
Â
â
Ä
ä
Ã
ã
Ǎ
ǎ
Ā
ā
Ă
ă
Ą
ą
Å
å
Ć
ć
Ĉ
ĉ
Ç
ç
Č
č
Ċ
ċ
Đ
đ
Ď
ď
É
é
È
è
Ê
ê
Ë
ë
Ě
ě
Ē
ē
Ĕ
ĕ
Ė
ė
Ę
ę
Ĝ
ĝ
Ģ
ģ
Ğ
ğ
Ġ
ġ
Ĥ
ĥ
Ħ
ħ
Í
í
Ì
ì
Î
î
Ï
ï
Ĩ
ĩ
Ǐ
ǐ
Ī
ī
Ĭ
ĭ
İ
ı
Į
į
Ĵ
ĵ
Ķ
ķ
Ĺ
ĺ
Ļ
ļ
Ľ
ľ
Ł
ł
Ń
ń
Ñ
ñ
Ņ
ņ
Ň
ň
Ó
ó
Ò
ò
Ô
ô
Ö
ö
Õ
õ
Ǒ
ǒ
Ō
ō
Ŏ
ŏ
Ǫ
ǫ
Ő
ő
Ŕ
ŕ
Ŗ
ŗ
Ř
ř
Ś
ś
Ŝ
ŝ
Ş
ş
Š
š
Ș
ș
Ț
ț
Ť
ť
Ú
ú
Ù
ù
Û
û
Ü
ü
Ũ
ũ
Ů
ů
Ǔ
ǔ
Ū
ū
ǖ
ǘ
ǚ
ǜ
Ŭ
ŭ
Ų
ų
Ű
ű
Ŵ
ŵ
Ý
ý
Ŷ
ŷ
Ÿ
ÿ
Ȳ
ȳ
Ź
ź
Ž
ž
Ż
ż
Æ
æ
Ǣ
ǣ
Ø
ø
Œ
œ
ß
Ð
ð
Þ
þ
Ə
ə
서식 지정
링크
문단 제목
목록
파일
각주
토론
설명
입력하는 내용
문서에 나오는 결과
기울임꼴
''기울인 글씨''
기울인 글씨
굵게
'''굵은 글씨'''
굵은 글씨
굵고 기울인 글씨
'''''굵고 기울인 글씨'''''
굵고 기울인 글씨
'''K-Nearest Neighbo'''r, often abbreviated as '''K-NN''', is a simple and intuitive [[Classification Algorithm|classification]] and [[Regression Algorithm|regression algorithm]] used in [[Supervised Machine Learning|supervised machine learning]]. It classifies new data points based on the majority class among its nearest neighbors in the feature space. K-NN is a non-parametric algorithm, meaning it makes no assumptions about the underlying data distribution, making it versatile but often computationally intensive. ==How It Works== The K-NN algorithm works by calculating the distance between the new data point and existing points in the dataset. Some common distance metrics used include: *'''Euclidean Distance''': The straight-line distance between two points, most commonly used in K-NN. *'''Manhattan Distance''': The distance calculated along grid lines, useful in certain types of data where this metric makes more sense. *'''Minkowski Distance''': A generalized form of both Euclidean and Manhattan distances, where the parameter can be tuned based on the dataset. The algorithm follows these steps: 1. '''Choose K''': Select the number of neighbors (K) to consider. This parameter is often tuned based on validation data to achieve the best performance. 2. '''Calculate Distances''': Compute the distance between the new data point and all points in the dataset. 3. '''Identify Nearest Neighbors''': Identify the K points with the shortest distance to the new data point. 4. '''Make Prediction''': For classification, assign the majority class among the K neighbors to the new point. For regression, calculate the average of the neighbors’ values. ==Applications of K-NN== K-NN is widely used in applications where interpretability and simplicity are important. Some common use cases include: *'''[[Recommendation System|Recommendation Systems]]''': K-NN is used to find items similar to a user’s preferences by comparing items with similar features. *'''Image Recognition''': Classifying objects in images by identifying similar pixel patterns among labeled images. *'''Medical Diagnosis''': Predicting diseases by comparing new patient data to known cases with similar symptoms or test results. ==Advantages and Disadvantages== '''Advantages:''' *'''Simplicity''': Easy to understand and implement. *'''No Training Phase''': Since K-NN is a lazy learner, it doesn’t require a training phase, making it useful for certain real-time applications. *'''Versatility''': Works for both classification and regression tasks. '''Disadvantages:''' *'''Computationally Intensive''': For large datasets, K-NN can be slow since it calculates distances for each prediction. *'''Sensitive to Outliers''': Outliers can impact the results as K-NN considers all neighbors equally. *'''Need for Feature Scaling''': Performance of K-NN depends on scaling, as features with larger scales could dominate distance calculations. ==Choosing the Right K Value== Selecting the optimal K value is crucial for the performance of K-NN. Generally: *A smaller K value may lead to [[overfitting]], as it considers fewer data points and may capture noise. *A larger K value can smooth out the prediction but may also lead to [[underfitting]]. Common practices for finding the best K include using cross-validation on a range of K values to identify the one that provides the best accuracy on validation data. [[Category:Data Science]]
요약:
IT 위키에서의 모든 기여는 크리에이티브 커먼즈 저작자표시-비영리-동일조건변경허락 라이선스로 배포된다는 점을 유의해 주세요(자세한 내용에 대해서는
IT 위키:저작권
문서를 읽어주세요). 만약 여기에 동의하지 않는다면 문서를 저장하지 말아 주세요.
또한, 직접 작성했거나 퍼블릭 도메인과 같은 자유 문서에서 가져왔다는 것을 보증해야 합니다.
저작권이 있는 내용을 허가 없이 저장하지 마세요!
취소
편집 도움말
(새 창에서 열림)
둘러보기
둘러보기
대문
최근 바뀜
광고
위키 도구
위키 도구
특수 문서 목록
문서 도구
문서 도구
사용자 문서 도구
더 보기
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보
문서 기록