익명 사용자
로그인하지 않음
토론
기여
계정 만들기
로그인
IT 위키
검색
Perceptron
편집하기
IT 위키
이름공간
문서
토론
더 보기
더 보기
문서 행위
읽기
편집
원본 편집
역사
경고:
로그인하지 않았습니다. 편집을 하면 IP 주소가 공개되게 됩니다.
로그인
하거나
계정을 생성하면
편집자가 사용자 이름으로 기록되고, 다른 장점도 있습니다.
스팸 방지 검사입니다. 이것을 입력하지
마세요
!
고급
특수 문자
도움말
문단 제목
2단계
3단계
4단계
5단계
형식
넣기
라틴 문자
확장 라틴 문자
IPA 문자
기호
그리스 문자
그리스어 확장
키릴 문자
아랍 문자
아랍어 확장
히브리 문자
뱅골어
타밀어
텔루구어 문자
싱할라 문자
데바나가리어
구자라트 문자
태국어
라오어
크메르어
캐나다 원주민 언어
룬 문자
Á
á
À
à
Â
â
Ä
ä
Ã
ã
Ǎ
ǎ
Ā
ā
Ă
ă
Ą
ą
Å
å
Ć
ć
Ĉ
ĉ
Ç
ç
Č
č
Ċ
ċ
Đ
đ
Ď
ď
É
é
È
è
Ê
ê
Ë
ë
Ě
ě
Ē
ē
Ĕ
ĕ
Ė
ė
Ę
ę
Ĝ
ĝ
Ģ
ģ
Ğ
ğ
Ġ
ġ
Ĥ
ĥ
Ħ
ħ
Í
í
Ì
ì
Î
î
Ï
ï
Ĩ
ĩ
Ǐ
ǐ
Ī
ī
Ĭ
ĭ
İ
ı
Į
į
Ĵ
ĵ
Ķ
ķ
Ĺ
ĺ
Ļ
ļ
Ľ
ľ
Ł
ł
Ń
ń
Ñ
ñ
Ņ
ņ
Ň
ň
Ó
ó
Ò
ò
Ô
ô
Ö
ö
Õ
õ
Ǒ
ǒ
Ō
ō
Ŏ
ŏ
Ǫ
ǫ
Ő
ő
Ŕ
ŕ
Ŗ
ŗ
Ř
ř
Ś
ś
Ŝ
ŝ
Ş
ş
Š
š
Ș
ș
Ț
ț
Ť
ť
Ú
ú
Ù
ù
Û
û
Ü
ü
Ũ
ũ
Ů
ů
Ǔ
ǔ
Ū
ū
ǖ
ǘ
ǚ
ǜ
Ŭ
ŭ
Ų
ų
Ű
ű
Ŵ
ŵ
Ý
ý
Ŷ
ŷ
Ÿ
ÿ
Ȳ
ȳ
Ź
ź
Ž
ž
Ż
ż
Æ
æ
Ǣ
ǣ
Ø
ø
Œ
œ
ß
Ð
ð
Þ
þ
Ə
ə
서식 지정
링크
문단 제목
목록
파일
각주
토론
설명
입력하는 내용
문서에 나오는 결과
기울임꼴
''기울인 글씨''
기울인 글씨
굵게
'''굵은 글씨'''
굵은 글씨
굵고 기울인 글씨
'''''굵고 기울인 글씨'''''
굵고 기울인 글씨
The Perceptron is a type of artificial neuron and one of the simplest models in machine learning, used for binary classification tasks. It is a linear classifier that learns to separate data into two classes by finding an optimal hyperplane. Originally developed in the 1950s, the perceptron laid the foundation for more complex neural network architectures. ==Structure of a Perceptron== A perceptron consists of several key components: *'''Inputs''': The feature values from a data point (e.g., x₁, x₂, ..., xₙ). *'''Weights''': Each input has an associated weight (w₁, w₂, ..., wₙ) that determines the importance of the input in predicting the output. *'''Bias''': A constant term added to the weighted sum of inputs, helping the perceptron model data that does not pass through the origin. *'''Activation Function''': The perceptron uses a step function as the activation function, outputting either 1 or 0 depending on whether the weighted sum of inputs exceeds a certain threshold. ==Perceptron Formula== The output of a perceptron is calculated as follows: - Weighted Sum: z = w₁x₁ + w₂x₂ + ... + wₙxₙ + b - Activation: output = 1 if z > 0, otherwise 0 The perceptron outputs 1 if the weighted sum of inputs and bias is positive; otherwise, it outputs 0. This allows the perceptron to classify data into two categories. ==Training the Perceptron== Training a perceptron involves adjusting the weights and bias to minimize classification errors on the training data. The basic steps in training are: 1. '''Initialize Weights''': Start with random weights and bias. 2. '''Predict Output''': For each training example, calculate the weighted sum and apply the activation function to get the prediction. 3. '''Update Weights''': If the prediction is incorrect, update the weights and bias using the perceptron learning rule: - For each weight wᵢ: wᵢ = wᵢ + η * (y - ŷ) * xᵢ - Bias: b = b + η * (y - ŷ) Here, η is the learning rate, y is the true label, and ŷ is the predicted label. This process continues iteratively until the perceptron classifies the training data correctly or reaches a maximum number of iterations. ==Applications of Perceptrons== Although simple, perceptrons are used in basic classification tasks and have historical significance in machine learning: *'''Binary Classification''': Classifying data into two categories, such as spam vs. not spam or healthy vs. unhealthy. *'''Logical Operations''': Modeling simple logic gates (AND, OR) with linearly separable data. *'''Building Block for Neural Networks''': Perceptrons serve as the basic units in more complex neural networks, particularly in multi-layer perceptron (MLP) architectures. ==Limitations of Perceptrons== While useful in specific scenarios, perceptrons have significant limitations: *'''Linearly Separable Data Only''': Perceptrons can only classify linearly separable data. They cannot solve problems like XOR, where classes cannot be separated by a single line. *'''Single-Layer Limitation''': Single-layer perceptrons lack the capacity to learn more complex relationships, limiting their applicability in real-world tasks. *'''Non-Differentiable Activation Function''': The step function is non-differentiable, which restricts the perceptron from using gradient-based optimization methods. ==Perceptron vs. Multi-Layer Perceptron (MLP)== The perceptron is the simplest form of neural network with a single layer, while the multi-layer perceptron (MLP) extends this structure by adding hidden layers. MLPs use differentiable activation functions, allowing them to solve more complex, non-linear problems through backpropagation. ==Related Concepts== Understanding the perceptron involves familiarity with related concepts: *'''Linear Classifiers''': Models that separate data using a linear boundary. *'''Activation Functions''': Functions that determine the output of a neuron, such as step functions for perceptrons or sigmoid functions for neural networks. *'''Gradient Descent''': An optimization technique used in training multi-layer perceptrons but not applicable to single-layer perceptrons due to the non-differentiable activation function. ==See Also== *[[Multi-Layer Perceptron]] *[[Neural Network]] *[[Activation Function]] *[[Gradient Descent]] *[[Binary Classification]] *[[Machine Learning]] [[Category:Artificial Intelligence]]
요약:
IT 위키에서의 모든 기여는 크리에이티브 커먼즈 저작자표시-비영리-동일조건변경허락 라이선스로 배포된다는 점을 유의해 주세요(자세한 내용에 대해서는
IT 위키:저작권
문서를 읽어주세요). 만약 여기에 동의하지 않는다면 문서를 저장하지 말아 주세요.
또한, 직접 작성했거나 퍼블릭 도메인과 같은 자유 문서에서 가져왔다는 것을 보증해야 합니다.
저작권이 있는 내용을 허가 없이 저장하지 마세요!
취소
편집 도움말
(새 창에서 열림)
둘러보기
둘러보기
대문
최근 바뀜
광고
위키 도구
위키 도구
특수 문서 목록
문서 도구
문서 도구
사용자 문서 도구
더 보기
여기를 가리키는 문서
가리키는 글의 최근 바뀜
문서 정보
문서 기록