1. 신경망 딥러닝 용어
ㅇ 입력층 (Input Layer)
- 입력 데이터를 받아들이는 층
. 각 노드는 입력 데이터의 특성을 나타냄
ㅇ 은닉층 (Hidden Layer)
- 입력층과 출력층 사이의 층
. 비선형 특성을 학습하며, 딥러닝의 주요 처리 과정이 이루어지는 부분
ㅇ 출력층 (Output Layer)
- 모델의 최종 결과를 출력하는 층
. 분류 문제 : 클래스 확률, 회귀 문제 : 연속값 등을 출력
ㅇ 뉴런 (Neuron)
- 신경망의 기본 단위
. 입력 신호를 받아 가중치와 활성화 함수를 통해 출력값을 계산
ㅇ 가중치 (Weight)
- 각 입력 신호의 중요도를 나타내는 값
. 학습을 통해 최적의 값으로 조정됨
ㅇ 바이어스 (Bias)
- 활성화 함수의 출력값을 조정하는 상수
. 모델이 더 유연하게 학습할 수 있도록 도와줌
ㅇ 활성화 함수 (Activation Function)
- 뉴런의 출력값을 비선형 변환하는 함수
. ReLU, Sigmoid, Tanh, Softmax 등
ㅇ 역전파 (Backpropagation)
- 출력층 → 입력층 방향으로 오차를 전파하며, 가중치를 업데이트하는 학습 방법
ㅇ 손실 함수 (Loss Function)
- 모델의 예측값과 실제값 간의 차이를 나타내는 함수.
. 회귀 문제 : 평균 제곱 오차 (MSE)
. 분류 문제 : 교차 엔트로피 (Cross-Entropy)
ㅇ 경사하강법 (Gradient Descent)
- 손실 함수를 최소화하기 위해 가중치를 조정하는 알고리즘.
. 변형된 방법으로는 Stochastic Gradient Descent (SGD), Adam 등이 있음
ㅇ 에폭 (Epoch)
- 전체 데이터셋이 신경망을 한 번 통과한 학습 단위
ㅇ 배치 (Batch)
- 학습 과정에서 한 번에 처리되는 데이터의 묶음
. 미니 배치 (Mini-batch) : 데이터셋을 소규모로 나눠 학습.
ㅇ 과적합 (Overfitting)
- 모델이 훈련 데이터에 만 과도하게 최적화되어, 일반화 성능이 떨어지는 현상
ㅇ 드롭아웃 (Dropout)
- 과적합을 방지하기 위해 학습 중 일부 뉴런을 랜덤하게 제외하는 기법
ㅇ 과소적합 (Underfitting)
- 모델이 충분한 데이터로 학습하지 못해 성능이 낮은 상태
ㅇ 하이퍼 파라미터 (Hyperparameter)
- 학습 전에 설정하는 값 (학습률, 배치 크기, 은닉층 수 등)
ㅇ 모델 파라미터 (Model Parameter)
- 학습 중에 조정되는 값 (가중치, 편향 등)