강사님 안녕하세요 🙂
수업 열심히 듣고있는 학생입니다!
수업 들으면서 궁금한 점 정리해서 문의 드립니다!
강의 학습 후 https://www.tensorflow.org/tutorials/images/cnn 에서 튜토리얼을 살펴보는데 마지막 dense 레이어에 softmax 함수를 쓰지 않았더라구요. 그래서 그대로 진행해보니 정상적인 학습 자체가 진행되지 않았습니다.
이에 기존 배웠던 내용에서 달라진 부분이 뭘까 살펴보다 하기 loss function에 logits True를 변경하니 튜토리얼과 유사한 결과가 나왔습니다.
1) 해당 옵션은 softmax / sparse categorical crossentropy의 클래스 분류 경우에만 해당하나요?
2) softmax를 설정하거나 혹은 logits True 옵션을 주면 동일하게 분류 확률값이 나올 수 있는건가요? 즉 두 옵션이 동일한 기능을 하는 것으로 보면 될지요? 또한 두 방법 중 어느 방법이 더 적절한지요?
3) Normalization은 흑백/컬러 상관없이 모두 255.0으로 나누는지요? 또한 Normalization으로 변경된 0-1 사이의 값이 모델 학습 시 가중치 연산으로 증폭되었다가 최종 출력때 softmax나 logits true 옵션으로 다시 0-1 사이 값으로 변경시켜준다는 과정으로 이해하면 될지요?


4) conv2d의 단점을 보완하기 위해 maxpooling2d를 사용하는 것으로 말씀 주셨는데, 이 또한 선택사항일지요? 아님 일반적으로 함께 사용되는 것이 보편적인지요?
5) 상기와 별개로, overfitting이 발생한다의 기준은 train과 validataion을 비교했을때도 해당하는지요? 아니면 test와 비교했을 경우에만 정의내리는지요?
이제 배우는지라 질문이 많습니다ㅠㅠ 답변 기다리겠습니다, 감사합니다!