• 로그인
  • 장바구니에 상품이 없습니다.

home2 게시판 Python, SQL 게시판 문의사항 전달 드립니다.

문의사항 전달 드립니다.

3 글 보임 - 1 에서 3 까지 (총 3 중에서)
  • 글쓴이
  • #37588

    이지수
    참가자

    강사님 안녕하세요 🙂 

    수업 열심히 듣고있는 학생입니다! 

    수업 들으면서 궁금한 점 정리해서 문의 드립니다!

    강의 학습 후 https://www.tensorflow.org/tutorials/images/cnn 에서 튜토리얼을 살펴보는데 마지막 dense 레이어에 softmax 함수를 쓰지 않았더라구요. 그래서 그대로 진행해보니 정상적인 학습 자체가 진행되지 않았습니다.

    이에 기존 배웠던 내용에서 달라진 부분이 뭘까 살펴보다 하기 loss function에 logits True를 변경하니 튜토리얼과 유사한 결과가 나왔습니다. 

    1) 해당 옵션은 softmax  / sparse categorical crossentropy의 클래스 분류 경우에만 해당하나요?

    2) softmax를 설정하거나 혹은 logits True 옵션을 주면 동일하게 분류 확률값이 나올 수 있는건가요? 즉 두 옵션이 동일한 기능을 하는 것으로 보면 될지요? 또한 두 방법 중 어느 방법이 더 적절한지요? 

    3) Normalization은 흑백/컬러 상관없이 모두 255.0으로 나누는지요? 또한 Normalization으로 변경된 0-1 사이의 값이 모델 학습 시 가중치 연산으로 증폭되었다가 최종 출력때 softmax나 logits true 옵션으로 다시 0-1 사이 값으로 변경시켜준다는 과정으로 이해하면 될지요? 

    4) conv2d의 단점을 보완하기 위해 maxpooling2d를 사용하는 것으로 말씀 주셨는데, 이 또한 선택사항일지요? 아님 일반적으로 함께 사용되는 것이 보편적인지요?

    5) 상기와 별개로, overfitting이 발생한다의 기준은 train과 validataion을 비교했을때도 해당하는지요? 아니면 test와 비교했을 경우에만 정의내리는지요? 

    이제 배우는지라 질문이 많습니다ㅠㅠ 답변 기다리겠습니다, 감사합니다!

    #37601

    codingapple
    키 마스터

    softmax 안쓰고 from_logits = True 해도 됩니다 연습할 땐 큰 차이 없습니다 

    3. 다맞습니다 

    4. 선택사항인데 결과가 좋아서 같이 쓸 뿐입니다 

    5. train과 val 정확도 비교로도 판단가능합니다 

    #37607

    이지수
    참가자

    빠른 답변 감사드립니다! 🙂

3 글 보임 - 1 에서 3 까지 (총 3 중에서)
  • 답변은 로그인 후 가능합니다.

About

현재 월 700명 신규수강중입니다.

  (09:00~20:00) 빠른 상담은 카톡 플러스친구 코딩애플 (링크)
  admin@codingapple.com
  이용약관, 개인정보처리방침
ⓒ Codingapple, 강의 예제, 영상 복제 금지
top

© Codingapple, All rights reserved. 슈퍼로켓 에듀케이션 / 서울특별시 강동구 고덕로 19길 30 / 사업자등록번호 : 212-26-14752 온라인 교육학원업 / 통신판매업신고번호 : 제 2017-서울강동-0002 호 / 개인정보관리자 : 박종흠