ML-DL/Base
representation, likelyhood, 활성화 함수, 손실함수, optimizer, 배치 사이즈
code-bean
2024. 8. 15. 21:00
# 갑자기 개념이 헷갈리는 순간을 위해 정리해놓음
- representation : 고차원 -> 저차원 매핑
- likelyhood : 연속적인 사건의 수는 확률로 계산 x -> likelyhood 사용
- 연속적인 사건이 일어날 확률은 1/무한대 = 0 이 되기 때문
- 정형 데이터 : 특성이 열로 표현됨 <-> 비정형 데이터 : 특성이 열로 구성할 수 없음
- 로지스틱 회귀, 랜덤 포레스트, XGBoost => 정보가 있지만 공간성 x
- 이미지 데이터의 경우,
- x_train : [데이터 개수, 이미지 크기[x], 이미지 크기[y], 채널]
- Sequential 모델 : 일렬로 층을 쌓은 네트워크 만들 때 사용 [이전층 그대로 다음층으로 연결]
- 활성화 함수 : relu [+ leaky relu], sigmoid, softmax
- sigmoid : binary classification, multilabel classification
- softmax : multiclass classification
- multilabel classification / multiclass classification
- multiclass classification : One Sample to One Label
- multilabel classification : One Sample to Multi-Label
- 학습시 모델 학습이 너무 느리다면, 가중치가 많은 층의 뉴런 줄여보는 것도 검토
- 손실함수 : [흔히 쓰는 건] mean squared error [mse], categorical cross-entropy, binary cross-entropy
- regression 문제 = mse
- multiclass classification = categorical cross-entropy
- multilabel classification = binary cross-entropy
- optimizer : [흔히 쓰는 건] adam, rmsprop
- batch_size 클수록 계산 안정적이지만 속도 느려짐
- 일반적으로 32 - 256 사이 사용
- axis = -1 : 마지막 차원으로 배열 압축
- 참조
- [OREILLY] 만들면서 배우는 생성 AI