신경망 딥러닝 파라미터

(2024-10-21)

Hyperparameter, 하이퍼 파라미터, Model Parameter, 모델 파라미터, Learning Rate, 학습률


1. 신경망 딥러닝 파라미터파라미터는, 모델데이터로부터 조정하는 값


2. 하이퍼 파라미터 (Hyperparameter)학습 전에 사람이 설정하는 값 

  ㅇ 주요 例)
     - 학습률 (Learning Rate)
        . 가중치와 편향의 업데이트 크기 (학습 속도) 조절
           .. 값이 너무 크면 발산하고, 너무 작으면 수렴이 느려질 수 있음
     - 배치 크기 (Batch Size)
        . 한 번의 학습에서 사용하는 데이터 샘플의 개수
        . 모델의 업데이트 빈도에 영향을 미침
           .. 소규모 배치 : 더 빠른 업데이트, 높은 노이즈
           .. 대규모 배치 : 안정적인 학습, 높은 계산 비용
     - 에포크 (Epoch)
        . 전체 데이터셋을 한 번 완전히 학습하는 과정의 횟수
        . 적정 값을 설정하지 않으면 과적합(overfitting) 또는 과소적합(underfitting) 발생
     - 정규화 강도 (Regularization Strength)
        . 과적합 방지를 위해 가중치 값에 규제를 가하는 정도
           .. L1 정규화 : 가중치의 절대값 합을 최소화
           .. L2 정규화 : 가중치의 제곱합을 최소화
     - 드롭아웃 비율 (Dropout Rate)
        . 학습 중 일부 뉴런의 출력을 랜덤하게 0으로 설정하는 비율
        . 과적합을 방지하고 일반화 성능을 향상
     - 네트워크 구조 (Network Architecture) 관련
        . 신경망의 층 수, 각 층의 뉴런 개수, 활성화 함수 종류 등
           .. 레이어 수 (은닉층 수), 입력/출력 차원, CNN의 커널 크기, RNN의 시퀀스 길이 등


3. 모델 파라미터 (Model Parameter)모델학습을 통해 결정되며, 최적화 과정에서 업데이트되는 값들
     - 최적화 알고리즘(경사하강법 등)에 의해 자동 조정됨

  ㅇ 주요 例)
     - 가중치 (Weight)
        . 각 뉴런 간 연결의 강도를 나타내는 값
        . 입력 데이터뉴런에 전달하며 곱해져 뉴런의 출력에 영향을 미침
        . 학습 데이터로부터 패턴모델링하는 핵심 요소
     - 편향 (Bias)
        . 뉴런에 더해지는 추가적인 상수 항
        . 출력값을 특정 방향으로 이동시키는 역할
        . 모델이 더 복잡한 패턴학습할 수 있도록 도와줌
     - 활성화 함수 출력 값
        . 활성화 함수(예: ReLU, Sigmoid, Tanh)를 통해 계산된 각 뉴런의 최종 출력 값
        . 모델비선형성을 추가하여 복잡한 데이터 관계를 학습하게 함

[신경망, 딥러닝]1. 인공 신경망 (ANN)   2. 퍼셉트론, 다층 퍼셉트론   3. 딥러닝   4. 활성화 함수   5. 역전파   6. 신경망 딥러닝 용어   7. 신경망 딥러닝 파라미터  

  1. Top (분류 펼침)      :     1,599개 분류    6,594건 해설

"본 웹사이트 내 모든 저작물은 원출처를 밝히는 한 자유롭게 사용(상업화포함) 가능합니다"
     [정보통신기술용어해설]       편집·운영 (차재복)