신경망 딥러닝 용어

(2024-09-27)

1. 신경망 딥러닝 용어

  ㅇ 입력층 (Input Layer)
     - 입력 데이터를 받아들이는 층
        . 각 노드는 입력 데이터의 특성을 나타냄

  ㅇ 은닉층 (Hidden Layer)
     - 입력층과 출력층 사이의 층
        . 비선형 특성을 학습하며, 딥러닝의 주요 처리 과정이 이루어지는 부분

  ㅇ 출력층 (Output Layer)
     - 모델의 최종 결과를 출력하는 층
        . 분류 문제 : 클래스 확률, 회귀 문제 : 연속값 등을 출력

  ㅇ 뉴런 (Neuron)
     - 신경망의 기본 단위
        . 입력 신호를 받아 가중치와 활성화 함수를 통해 출력값을 계산

  ㅇ 가중치 (Weight)
     - 각 입력 신호의 중요도를 나타내는 값
        . 학습을 통해 최적의 값으로 조정됨

  ㅇ 바이어스 (Bias)
     - 활성화 함수의 출력값을 조정하는 상수
        . 모델이 더 유연하게 학습할 수 있도록 도와줌

  ㅇ 활성화 함수 (Activation Function)
     - 뉴런의 출력값을 비선형 변환하는 함수
        . ReLU, Sigmoid, Tanh, Softmax 등

  ㅇ 역전파 (Backpropagation)
     - 출력층 → 입력층 방향으로 오차를 전파하며, 가중치를 업데이트하는 학습 방법

  ㅇ 손실 함수 (Loss Function)
     - 모델예측값과 실제값 간의 차이를 나타내는 함수.
        . 회귀 문제 : 평균 제곱 오차 (MSE)
        . 분류 문제 : 교차 엔트로피 (Cross-Entropy)

  ㅇ 경사하강법 (Gradient Descent)
     - 손실 함수를 최소화하기 위해 가중치를 조정하는 알고리즘.
        . 변형된 방법으로는 Stochastic Gradient Descent (SGD), Adam 등이 있음

  ㅇ 에폭 (Epoch)
     - 전체 데이터셋이 신경망을 한 번 통과한 학습 단위

  ㅇ 배치 (Batch)
     - 학습 과정에서 한 번에 처리되는 데이터의 묶음
        . 미니 배치 (Mini-batch) : 데이터셋을 소규모로 나눠 학습.

  ㅇ 과적합 (Overfitting)
     - 모델이 훈련 데이터에 만 과도하게 최적화되어, 일반화 성능이 떨어지는 현상

  ㅇ 드롭아웃 (Dropout)
     - 과적합을 방지하기 위해 학습 중 일부 뉴런랜덤하게 제외하는 기법

  ㅇ 과소적합 (Underfitting)
     - 모델이 충분한 데이터로 학습하지 못해 성능이 낮은 상태하이퍼 파라미터 (Hyperparameter)
     - 학습 전에 설정하는 값 (학습률, 배치 크기, 은닉층 수 등)

  ㅇ 모델 파라미터 (Model Parameter)
     - 학습 중에 조정되는 값 (가중치, 편향 등)

[신경망, 딥러닝]1. 인공 신경망 (ANN)   2. 퍼셉트론, 다층 퍼셉트론   3. 딥러닝   4. 활성화 함수   5. 역전파   6. 신경망 딥러닝 용어   7. 신경망 딥러닝 파라미터  

  1. Top (분류 펼침)      :     1,599개 분류    6,594건 해설

"본 웹사이트 내 모든 저작물은 원출처를 밝히는 한 자유롭게 사용(상업화포함) 가능합니다"
     [정보통신기술용어해설]       편집·운영 (차재복)