본문 바로가기

파이썬 머신러닝ML20

생선 데이터, 렌덤으로 섞기 numpy, KNeighborsClassifier KNeighborsClassifier k-최근접 이웃 모델을 이용하여 머신러닝을 진행해보겠습니다. fish_length = [25.4, 26.3, 26.5, 29.0, 29.0, 29.7, 29.7, 30.0, 30.0, 30.7, 31.0, 31.0, 31.5, 32.0, 32.0, 32.0, 33.0, 33.0, 33.5, 33.5, 34.0, 34.0, 34.5, 35.0, 35.0, 35.0, 35.0, 36.0, 36.0, 37.0, 38.5, 38.5, 39.5, 41.0, 41.0, 9.8, 10.5, 10.6, 11.0, 11.2, 11.3, 11.8, 11.8, 12.0, 12.2, 12.4, 13.0, 14.3, 15.0] fish_weight = [242.0, 290.0, 340.0,.. 2023. 7. 31.
생선분류 k-Nearest Neighbors (k-최근접 이웃) 혼자 공부하는 딥러닝 공부를 위해 메모 했습니다 ㅎ 산점도로 데이터를 그려봅니다. bream_length = [25.4, 26.3, 26.5, 29.0, 29.0, 29.7, 29.7, 30.0, 30.0, 30.7, 31.0, 31.0, 31.5, 32.0, 32.0, 32.0, 33.0, 33.0, 33.5, 33.5, 34.0, 34.0, 34.5, 35.0, 35.0, 35.0, 35.0, 36.0, 36.0, 37.0, 38.5, 38.5, 39.5, 41.0, 41.0] bream_weight = [242.0, 290.0, 340.0, 363.0, 430.0, 450.0, 500.0, 390.0, 450.0, 500.0, 475.0, 500.0, 500.0, 340.0, 600.0, 600.0.. 2023. 7. 30.
Linear regression W,b를 조정해서 참에 가까운값으로 예측한다. import tensorflow as tf import numpy as np from tensorflow import keras from tensorflow.keras.optimizers import SGD # X, Y 데이터 x_train = [1,2,3] y_train = [1,2,3] W = tf.Variable(tf.random.normal([1]), name='weight') b = tf.Variable(tf.random.normal([1]), name='bias') #cost/loss function def compute_cost(): # XW+b h = x_train * W + b cost=tf.reduce_mean((h-y_train)**2) .. 2023. 7. 26.
생활데이터 간단하게 가공하기 알고리즘과 순서도 알고리즘 : 문제해결을 위한 처리순서 시작 → 데이터수집 → 참거짓 예/아니오 → 끝 명제와 조건 부정 ~p // p가 아니다. 논리곱 x ^ ~이고 (and) // 논리합 + v 이거나~(or) p q p^q T T T T F F F T F F F F p q pVq T T T T F T F T T F F F 수열, 시그마 2023. 7. 26.
반응형