일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 김성훈 교수님 PyTorch
- C언어 공부
- 해리스 코너 검출
- 딥러닝 스터디
- 영상처리
- Pytorch Lecture
- 딥러닝 공부
- 파이토치
- c언어 정리
- 가우시안 필터링
- 미디언 필터링
- 딥러닝
- 모두의 딥러닝
- 팀프로젝트
- object detection
- c++
- 파이토치 강의 정리
- 골빈해커
- tensorflow 예제
- MFC 프로그래밍
- pytorch zero to all
- c언어
- matlab 영상처리
- 컴퓨터 비전
- c++공부
- 파이토치 김성훈 교수님 강의 정리
- 케라스 정리
- pytorch
- TensorFlow
- 모두의 딥러닝 예제
Archives
- Today
- Total
목록파이토치 sigmoid 함수 손실 함수 (1)
ComputerVision Jack
PyTorch Lecture 06 : Logistic Regression
Linear model logistic regression을 학습하기에 앞서, 앞에서 배운 선형 모델에 대해 우선적으로 복습을 해주셨습니다. x_data -> Linear Model -> y_data 경우 Hours(x) Points 1 2 2 4 3 6 4 ? 우리는 쉽게 8로 예측을 할수 있습니다. 선형 모델이기 때문이죠. Binary prediction (0 or 1) is very useful! 이번엔 문제 접근 방식을 조금 바꿔보겠습니다. 결과가 특정한 value로 수렴하지 않고 0과 1의 두가지 결과만 초래 한다고 생각해 봅시다. 때때로 이런식의 이분법적인 결론은 우리 사회에서 많이 직면할 수 있습니다. 이렇게 이분법적인 결과를 도출하기 위해선 우리는 선형 함수 결과에 활성화 함수(Sigmoi..
DeepLearning/Pytorch_ZeroToAll
2020. 10. 12. 18:08