전체 글65 파이썬 경사하강법(Gradient Decent) 선형모델 기울기 구하기 혼자 공부하려고 정리했어요~ 경사하강법은 가설 h (hypothesis) = 가중치(W) * X Cost함수 MSE(Mean Square Error, 평균 제곱 오차법)을 사용하여 최적의 기울기를 찾는 법 입니다. Cost(W) = (1/n) * sum((H(X) - Y)^2) W값을 0.6~3.5로 0.1 (leaning_rate) 간격으로 추정해서 cost를 구했습니다. 여기서 각 지점의 기울기를 구했는데요. Cost(W)를 W로 미분하면 g (Gradient) = @Cost(W)/@W = (2/n)*sum((H(X) - Y)*X) W_t+1 = W_t - g * (leaning_rate) g가 0에 수렴할때까지 학습합니다. 초기 학습되지 않았던 기울기에서 cost가 가장 낮은 지점을 찾아 기울기 값.. 2022. 12. 8. 파이썬 로또 번호 예측 하기 #4 혼자 공부하려고 정리했어요~ 이전 포스팅 링크 참고하세요~! 이번에는 DecisionTreeRegressor를 이용하여 로또 번호를 예측해보겠습니다. 훈련 데이터는 앞서 포스팅한 내용을 참고하세요~ https://gihoni.tistory.com/entry/%ED%8C%8C%EC%9D%B4%EC%8D%AC-%EB%A1%9C%EB%98%90-%EB%B2%88%ED%98%B8-%EC%98%88%EC%B8%A1-%ED%95%98%EA%B8%B0-1 파이썬 로또 번호 예측 하기 #1 혼자 공부하려고 정리했어요~ 구글 드리이브에서 .csv 불러오기부터 진행하겠습니다. 회차별 당첨번호 데이터가 있어야 예측할 수 있겠죠?? 동행복권 사이트에서 다운받을 수 있습니다. https://dhl 1.gihooni.com 저번.. 2022. 12. 5. 파이썬 K-fold, 최적 파라미터 찾기 혼자 공부하려고 정리했어요~ KFold 20개의 y값을 0.2 : 0.8로 나눠서 5set로 검증할 수 있도록 split함 x = np.arange(0.0, 2.0, 0.1) y = np.zeros(20) y[12:] = 1 kfold = KFold(5, shuffle=True) for train, test in kfold.split(x): print(y[train], y[test]) 출력 : [0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 1. 1. 1. 1. 1. 1.] [0. 0. 1. 1.] [0. 0. 0. 0. 0. 0. 0. 0. 0. 1. 1. 1. 1. 1. 1. 1.] [0. 0. 0. 1.] [0. 0. 0. 0. 0. 0. 0. 0. 0. 1. 1. 1. 1. 1. 1. 1... 2022. 12. 5. 파이썬 정확도 정확도(Aaccuraty) - 예측데이터와 실제데이터가 얼마나 같은지 판단함 0~1의 값으로 출력되며, 백분율로 보면됩니다. 정확도 = 정답수/전체 예측한 갯수 이전 포스팅에서 knn분류 실습했던 내용으로 정확도를 한번 구해볼까요? https://gihoni.tistory.com/entry/%ED%8C%8C%EC%9D%B4%EC%8D%AC-KNeighborsClassifier-KNN-%EB%B6%84%EB%A5%98-%EC%8B%A4%EC%8A%B5 파이썬 KNeighborsClassifier KNN 분류 실습 혼자 공부하려고 정리했어요~ np.random.randint() 함수 활용 무작위수 30X2 (2set 생성) 임의 점을 생성하여 KNeighborsClassifier()를 활용하여 어디에 포함되.. 2022. 12. 2. 이전 1 ··· 6 7 8 9 10 11 12 ··· 17 다음 반응형