본문 바로가기

회귀학습공부3

Kaggle - London Bike Sharing (5) 머신러닝 기반 학습,예측 * 모형 평가 metric 설정 - RMSE from sklearn.metrics import mean_squared_error def RMSE(y_test, y_pred): return np.sqrt(mean_squared_error(y_test, y_pred)) * RandomForestRegressor RandomForest를 사용한 회귀 방식 RandomForestRegressor 함수에는 수많은 옵션이 있지만, n_estimators와 random_state만 사용해서 진행했다. from sklearn.ensemble import RandomForestRegressor rf = RandomForestRegressor(n_estimators=100, random_state=16) #100개의 모형.. 2023. 10. 3.
Kaggle - London Bike Sharing (4) 딥러닝 모델 구성, 학습 keras를 사용한 학습 방법이다. * 필요 라이브러리 import import keras from keras.models import Sequential from keras.layers import Dense from keras.callbacks import EarlyStopping * 위 라이브러리를 사용한 학습 모델 구성 (layer 쌓기) Dense layer 4개로만 이루어진 간단한 모델을 쌓는다. 이전 단계에서 만들어둔 x_train의 개수가 57개이다. (아래 코드에서는 57 대신 shape의 크기를 가져왔다) model = Sequential() model.add(Dense(units=160, activation='relu', input_dim=int(x_train.shape[1])) ) .. 2023. 10. 3.
Kaggle - London Bike Sharing (2) 데이터 전처리:이상치 제거 앞 내용에서 데이터 시각화 문제를 해결하자마자 바로 다시 에러 발생 이 부분이 제일 중요한 것 같은데..!! >> 이상치 제거 시그마 제거, IQR 방법, k-means 군집 기반 제거 방법 등이 있다. 시그마 제거, IQR 제거 방법은 아래 블로그 참고할 예정 (지금은 한번 쭉 훑는게 목적이라 패스) https://brave-greenfrog.tistory.com/13 kaggle 실습 - 아웃라이어(이상치) 제거 1. 3시그마 이상치 제거 3 시그마 이상치 제거란 ? 정규분포에서 데이터들이 ±3σ 안에 포함될 확률은 무려 99.7%인데 3 시그마 규칙이란 데이터가 ±3σ 밖에 존재할 확률은 0.3%이기 때문에 이 범위 brave-greenfrog.tistory.com >> 코드 * 이상치 제거 함수 .. 2023. 10. 3.