일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- discrete_scatter
- CES 2O21 참여
- C언어
- tensorflow
- inorder
- Keras
- bccard
- cudnn
- java역사
- 데이터전문기관
- 결합전문기관
- KNeighborsClassifier
- vscode
- 머신러닝
- web 사진
- postorder
- 자료구조
- classification
- 재귀함수
- pycharm
- html
- web 개발
- web
- broscoding
- web 용어
- CES 2O21 참가
- mglearn
- paragraph
- 웹 용어
- 대이터
- Today
- Total
목록[AI] (189)
bro's coding
https://broscoding.tistory.com/112 머신러닝.수치근사법 import numpy as np import matplotlib.pyplot as plt from sklearn.datasets import make_blobs data,label=make_blobs(n_samples=500,centers=[[0,0]]) data plt.hlines([0],-10,10,linestyles=':') plt.vlines(.. broscoding.tistory.com X=np.random.randn(500)*5 # 곱하는 수의 절댓값이 커질수록 직선에 가까워진다. y=X+np.random.randn(500) # 곱하는 수에 따라 회전(기울기 개념) pred_y=2*X # 기울기를 변경해 가며 ..
import numpy as np import matplotlib.pyplot as plt from sklearn.datasets import make_blobs data,label=make_blobs(n_samples=500,centers=[[0,0]]) data plt.hlines([0],-10,10,linestyles=':') plt.vlines([0],-10,10,linestyles=':') plt.scatter(data[:,0],data[:,1],alpha=0.3) plt.axis('scaled') data=data*[3,1] plt.hlines([0],-10,10,linestyles=':') plt.vlines([0],-10,10,linestyles=':') plt.scatter(data[:,..
#기울기 : coef(각각의 차원에 대한 기울기) #y절편 : intercept_ # ex: #coef의 결과 : a, b, c #intercept_의 결과 : d # data:XYZ # aX+bY+cZ=d # 각 데이터의 기울기( 가중치 ) : a, b, c # target의 높이 : d -기울기 : coef(각각의 차원에 대한 기울기) -y절편 : intercept_ ex: coef의 결과 : a, b, c intercept_의 결과 : d data:XYZ aX+bY+cZ=d # 각 데이터의 기울기( 가중치 ) : a, b, c # target의 높이 : d model.coef_ array([-0.21027133, 0.22877721, 0.52608818]) a=-0.21027133, b=0.2287..
- 비용함수는 예측한 값과 실제 값과의 차이를 수치화하는 방법(함수)이다. - 위의 결과에서 예측값인 평균값과 실제 데이터의 값들과의 차이로 계산
stochastic gradient descent rng=np.arange(mm-2,mm+2,0.1) plt.plot(rng,((data-rng.reshape(-1,1))**2).mean(axis=1)) plt.vlines([mm],11,15,linestyles=':') plt.ylabel=('MSE') plt.xlabel=('prediction') # 평균일 때, 오차가 가장 작고 # 평균과 멀어지면 오차는 증가한다.
#MAE(절댓값 에러) (np.abs(data-data.mean())).mean() #MSE(제곱 에러) (((data-data.mean())**2)).mean() #RMSE(제곱->루트 에러) np.sqrt((((data-data.mean())**2)).mean())
회기 분석 세가지가 데이터를 넣어서 나머지 한 개의 데이터를 예측 X=data[:,:3] y=data[:,3] from sklearn.linear_model import LinearRegression model=LinearRegression() model.fit(X,y) model.score(X,y) 0.9380481344518986 pred_y=model.predict(X) y,pred_y 더보기 (array([0.2, 0.2, 0.2, 0.2, 0.2, 0.4, 0.3, 0.2, 0.2, 0.1, 0.2, 0.2, 0.1, 0.1, 0.2, 0.4, 0.4, 0.3, 0.3, 0.3, 0.2, 0.4, 0.2, 0.5, 0.2, 0.2, 0.4, 0.2, 0.2, 0.2, 0.2, 0.4, 0.1, ..
import numpy as np import matplotlib.pyplot as plt iris=np.loadtxt('iris.csv',skiprows=1,delimiter=',',usecols=range(4)) iris=np.c_[iris,[0]*50+[1]*50+[2]*50] iris X=iris[:,:4] y=iris[:,4] 더보기 array([[5.1, 3.5, 1.4, 0.2, 0. ], [4.9, 3. , 1.4, 0.2, 0. ], [4.7, 3.2, 1.3, 0.2, 0. ], [4.6, 3.1, 1.5, 0.2, 0. ], [5. , 3.6, 1.4, 0.2, 0. ], [5.4, 3.9, 1.7, 0.4, 0. ], [4.6, 3.4, 1.4, 0.3, 0. ], [5. , 3.4..
from sklearn.neighbors import KNeighborsClassifier X=iris[:,:4] y=iris[:,4] knn=KNeighborsClassifier() knn.fit(X,y) knn.score(X,y) knn.predict(X) from sklearn.linear_model import LinearRegression linear=LinearRegression() linear.fit(iris[:,[2]],iris[:,3]) 기울기 = linear.coef_[0] 절편 = linear.intercept_ 기울기, 절편 plt.scatter(iris[:,2],iris[:,3]) plt.xlabel('PetalLength') plt.ylabel('PetalWidth') plt.p..