1. 딥 러닝, 심층 학습 (Deep Learning)
ㅇ 인간의 뇌 신경망을 모방한, 신경망(NN: Neural Network)을 기초로 하는 학습법
- 기존의 신경망 보다 훨씬 복잡하고 깊이가 깊은 심층/다층 신경망을 사용
- 신경망을 층층히 쌓아서 문제를 해결하는 기법
ㅇ 대량의 데이터를 처리하고, 복잡한 패턴을 인식하는 데 특화됨
2. 특징
ㅇ 피처를 자동으로 추출하여 학습하는 방식
- 데이터에서 유의미한 특성을 스스로 학습해 나가는 방식
. 데이터를 단계적으로 분석하면서 복잡한 특징을 점진적으로 학습
ㅇ 데이터량에 의존하는 기법
- 데이터에 대한 가정은 적으나, 다양한 패턴,경우에 유연하게 대응하는 구조를 만들어서,
- 많은 데이터(빅데이터)를 이용하여 학습시켜, 모델의 성능을 향상시킴
ㅇ 단순한 데이터 처리를 넘어,
- 복잡한 문제 해결 및 창의적 사고를 가능케 함
ㅇ 딥러닝 주요 모델
- CNN, RNN, 트랜스포머 등
ㅇ 주요 라이브러리
- TensorFlow, PyTorch, Keras 등
ㅇ (한계점)
- 데이터 의존성 : 매우 많은 양의 고 품질 데이터 필요
- 블랙박스 문제 : 의사결정 과정을 파악하기 어려움
- 높은 계산 비용 : 복잡한 모델을 학습하기 위해 많은 연산 자원 필요
ㅇ (편집중)
3. 핵심 구성요소
ㅇ 다층 신경망 구조 (비선형 분류기)
- 입력층 : 데이터를 받아들임
- 은닉층 (하나이상) : 입력 데이터를 처리하고 특징을 추출
. 은닉 층이 2 이상 있는 경우 : 심층 신경망 (DNN : Deep Neural Network)
- 출력층 : 최종 결과를 출력
* (각 층 내 뉴런들이 서로 완전히 연결되는 완전 연결층(Fully Connected Layer) 구조)
ㅇ 활성화 함수 (Activation Function)
- 데이터를 비선형적으로 변환하여, 복잡한 패턴을 학습 가능토록 함 (ReLU, Sigmoid, Tanh 등)
ㅇ 손실 함수 (Loss Function)
- 예측값과 실제값 간의 차이를 계산하여, 학습 방향을 설정 (MSE 등)
ㅇ 역전파 (Backpropagation)
- 손실을 최소화하기 위해 가중치를 조정하는 과정 (경사하강법 등)
ㅇ (편집중)