일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- MFC 프로그래밍
- c++공부
- 파이토치
- 골빈해커
- 해리스 코너 검출
- 파이토치 김성훈 교수님 강의 정리
- c언어 정리
- tensorflow 예제
- c++
- 팀프로젝트
- TensorFlow
- 컴퓨터 비전
- 영상처리
- pytorch
- 모두의 딥러닝
- 가우시안 필터링
- 미디언 필터링
- C언어 공부
- 모두의 딥러닝 예제
- 파이토치 강의 정리
- c언어
- 딥러닝 스터디
- pytorch zero to all
- 김성훈 교수님 PyTorch
- 케라스 정리
- 딥러닝
- 딥러닝 공부
- matlab 영상처리
- Pytorch Lecture
- object detection
Archives
- Today
- Total
목록머신러닝 기대값 최대화 (1)
ComputerVision Jack
머신러닝 가이드 - Chapter 7 확률 학습
뉴럴 네트워크에서 비판할 점은(MLP 에서) 알고리즘에서 무엇을 학습하는지 알기 힘들다는 점이다. 뉴런들의 활성화와 가중치들을 살펴 볼 수 있지만, 이들은 많은 정보를 말해 주지는 않는다. ( 흔히 블랙박스라고한다.) 따라서 해석하기 힘든 가중치 대신 통계학을 바탕으로 학습된 확률들을 살펴보고 해석한다. 1. 가우시안 혼합 모델 같은 데이터에서 목표 라벨들이 존재하지 않는 비지도학습이라고 가정했을 때, 다른 클래스에 속하는 데이터들이 각각 가우시안 분포에서 생성된다고 가정한다. 각각의 다른 클래스에 대해서 하나씩의 모드(Mode)가 존재하므로 다중 최빈값 데이터(multi-modal data)라고 부른다. 데이터 전체에 얼마나 많은 클래스들이 존재하는지 알 수 있다면 많은 가우시안 파라미터들을 추측할 수..
DeepLearning/머신러닝 - Algorithm
2020. 3. 16. 20:30