일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 파이토치 김성훈 교수님 강의 정리
- matlab 영상처리
- tensorflow 예제
- object detection
- 딥러닝 스터디
- 미디언 필터링
- TensorFlow
- MFC 프로그래밍
- C언어 공부
- 딥러닝
- 모두의 딥러닝
- c언어 정리
- 케라스 정리
- c언어
- 김성훈 교수님 PyTorch
- 골빈해커
- 가우시안 필터링
- c++공부
- 해리스 코너 검출
- 모두의 딥러닝 예제
- 컴퓨터 비전
- c++
- 영상처리
- 팀프로젝트
- pytorch
- 딥러닝 공부
- 파이토치 강의 정리
- pytorch zero to all
- 파이토치
- Pytorch Lecture
- Today
- Total
ComputerVision Jack
[스터디 - Logistic Regression 예제] 본문
저번 스터디에선 dataProcess 과정을 거쳐 새롭게 바뀐 csv 파일을 추출하였는데.
data = df.values 과정을 통해서 데이터 프레임을 numpy array로 바꿀 수 있어서 따로 Process과정을 제외하고 바로 처리하였습니다.
[Simple Logistic Dataset]
다음 SimpleDataset은 Purchased 예측하는 데이터셋입니다.
UserId와 를 drop() 메소드를 이용하여 제외하고 Gender를 0과 1 이진으로 바꿔준 후에 구현하였습니다.
[Heart Disease Dataset]
다음 데이터는 TenYearCHD를 예측하는 데이터셋입니다.
데이터 중간에 N/A 값이 발생하여 fillna() 메소드를 사용하여 공백값을 처리했습니다.
<코드>
df = df.fillna(df.mean())
다음은 min_max_scalar() 함수를 통하여 전체적인 데이터의 분포 값을 설정합니다.
def min_max_scalar(data):
numerator = data - np.min(data, 0)
denominator = np.max(data, 0) - np.min(data, 0)
return numerator / (denominator + 1e-7)
[Titanic Dataset]
다음은 Survived를 예측하는 csv파일 입니다.
제시된 데이터에 0값이 너무 많은 관계로
df = df.drop(['Passengerid','Embarked','zero', 'zero.1', 'zero.2', 'zero.3', 'zero.4', 'zero.4', 'zero.5', 'zero.6', 'zero.7',
'zero.8','zero.9', 'zero.10', 'zero.11', 'zero.12', 'zero.13', 'zero.14', 'zero.15',
'zero.16', 'zero.17', 'zero.18'], axis = 1)
과정을 통해서 필요한 데이터만 사용하였습니다.
'DeepLearning Study > 모두의 딥러닝 예제' 카테고리의 다른 글
[스터디 - RNN 예제] (0) | 2020.05.25 |
---|---|
[스터디 CNN 예제] (0) | 2020.05.12 |
[스터디 - SoftMax 예제] (0) | 2020.05.07 |
[스터디 - Linear Regression 예제] (0) | 2020.05.06 |