활성화 함수(Activation Function)의 공통점 모든 활성화 함수의 공통점은 비선형(Non-linear)이라는 점 활성화 함수가 선형이면 안되는 이유 예를 들어, 선형인 활성화 함수 l(x) = ax + b 가 있다고 가정 이 함수를 사용하여 3개의 층을 쌓는다면 최종적인 활성화 함수는 이 때, 라고 하면, 로 여전히 같은 형태의 함수를 사용 즉, 층을 아무리 깊게 쌓아도 여러 층을 쌓는 이점을 살리지 못하게 됨 여러 층을 쌓을 때의 장점을 살리기 위해 비선형 함수 사용 IT 2022.05.31
인공신경망의 구조 인공 신경망 딥러닝(Deep Learning)은 인공 신경망의 층을 깊게(Deep) 쌓은 것 ANN(Artificial Neural Networks), 즉 인공 신경망은 실제 신경계를 모사하여 만들어진 계산 모델 줄여서 뉴럴넷(Neural-Net)으로 부르기도 함 퍼셉트론을 다층으로 쌓는 이유 1개의 분류기로는 XOR GATE 문제를 풀 수 있음 1개의 층으로는 해결할 수 없던 문제도 2개 이상의 층으로 구성하면 풀 수 있음 퍼셉트론을 여러 개의 층으로 쌓아 구축한 신경망 => 다층 퍼셉트론 신경망(Multi-Layer Perceptron, MLP)라고 함 입력층(Input Layer) 데이터셋이 입력되는 층 입력되는 데이터셋의 특성(Feature)에 따라 입력층 노드의 수가 결정 보통 어떤 계산도 수행.. IT 2022.05.29