* 패스트캠퍼스 수강, 요약
데이터->학습:[*모델->예측->비교->최적화] ->결과
데이터
학습시키기 위한 데이터.
전처리 들어감.
데이터가 제일 중요하다고 생각한다.
모델
설계하는 부분.
어떤 데이터가 들어왔을 때 잘 분류하는 특징을 찾아내서 클래스로 나눠줌
Prediction / Logit
각 클래스별로 예측한 값
이 중 가장 높은 값이 모델이 예상하는 클래스, 또는 정답이다.
저건 몇 퍼센트의 확률로 자동차야, 인간이야 ..
Loss / Cost
예측한 값과 정답을 비교해서 얼마나 틀렸는지 확인.
얼마나 틀렸는지(Loss), 이 값을 최대한 줄이는 것이 학습의 과정임.
Optimization
Loss값을 최소화하기 위해 기울기를 받아 최적화된 Variable값들로 변환
이 반환값이 적용된 모델은 전 보다 결과가 나아짐.
바로 최적화 값으로 움직이는 게 아니라 Learning Rate만큼 움직인 값 적용
Result
예측된 값에서 argmax를 통해 가장 높은 값을 예측한 class라고 둠
* 용어
모델
모델은 간단하게 CNN..?
인간의 뇌와 비슷하게 만듦
Layer
예전에는 단순하게 몇층만 썼었음.
이젠 층을 여러개 쌓아서 딥러닝.
인풋 -> 히든 -> 아웃풋 레이어
히든 레이어를 어떻게 쌓느냐 = 모델의 구조
VGG16-모델 중 하나. 이런 모델들을 보면 각 레이어가 나오고 몇층을 쌓았다..
레이어의 층수가 많다고 무조건 좋은건 아니다.
어떻게 효율적으로 쌓을지
ConvolutionCNN이 Convoltion Neural Network(합성곱신경망)이다.이미지가 있다면 필터를 받고 하나씩 곱해준다.
Weight, Filter, Kernel, Variable, Bias
Weight - 학습하려고 하는 대상. 필터가 고정된 값이 아니고 바꿔가면서 피처를 잘 뽑는 게 학습의 과정. 데이터마다 다른 웨이트.
y(아웃풋)=w(웨이트)x(인풋)+v(Variable)
Pooling Layer
압축을 하는 것.
이미지가 가지고 있는 특징을 가지고 줄이거나 하는 거?
Activation Function
앞에서 특징을 뽑았으면 불필요한 것을 제거함.
ex) ReLU
앞에서 convolution을 했으면 음수도 있고 양수도 있음. 음수를 모두 제거해줌. 불필요한 것을 제거해줌.
Softmax
최종 마지막에 컴퓨터가 예측을 함. 각 클래스마다 전체에서 수치를 부여함. 그 중 높은 게 정답이라고 유도하는 것임.소프트맥스를 거치면 모든 값을 합쳐서 1이 되게 만듦
각 클래스 별로 확률을 알려줌.
Cost/Loss/Loss Function
각자의 클래스에 대해 예측한 확률.
맞출확률도 계산하고 아닐 확률도 계산하는데 이 때 사용하는 것이 CostFunction, LossFunction
결과값 : Cost, Loss
Optimazation
얼마나 틀렸는지 보았으면 개선하고 싶은 것
Loss 줄이려고..
인공지능 학습 후 최적화
Learning Rate
컴퓨터가 할 수 없는 것.
직접 조정해주는 것들 중 하나.
Batch Size
모델에 데이터를 넣을 때 모든 걸 한번에 넣을 수는 없다.
ex) MNIST도 60000장.
모델에도 다 넣을 수는 없고 몇장을 넣어줄지 정하는거.
Epoch/Step
에폭 : 배치사이즈만큼 다 봐도 끝이 아님. 여러번 봐야함! 몇십만번 백만번.. 등등 보는데 전체데이터 1번보면 1에폭, 2번보면 2에폭..
Train / Validation / Test
데이터셋을 받으면 트레인, 테스트 세트를 나눔.
테스트셋은 진짜 시험을 위한 세트.
학습이 트레인.
평가는 테스트
Label / Ground Truth
데이터를 줄 때 레이블이 있어야함.(정답)
'MachineLearning > DeepLearning' 카테고리의 다른 글
torch-TensorRT 를 사용하며. torchscript 란? (0) | 2023.06.29 |
---|---|
백문이 불여일타 딥러닝 입문 정리 2. 살펴보기 (0) | 2023.01.10 |