這篇文章主要講解了“怎么使用Python線性回歸方法”,文中的講解內(nèi)容簡(jiǎn)單清晰,易于學(xué)習(xí)與理解,下面請(qǐng)大家跟著小編的思路慢慢深入,一起來(lái)研究和學(xué)習(xí)“怎么使用Python線性回歸方法”吧!
創(chuàng)新互聯(lián)建站是一家專(zhuān)業(yè)提供絳縣企業(yè)網(wǎng)站建設(shè),專(zhuān)注與網(wǎng)站設(shè)計(jì)、網(wǎng)站建設(shè)、HTML5建站、小程序制作等業(yè)務(wù)。10年已為絳縣眾多企業(yè)、政府機(jī)構(gòu)等服務(wù)。創(chuàng)新互聯(lián)專(zhuān)業(yè)網(wǎng)絡(luò)公司優(yōu)惠進(jìn)行中。
來(lái)說(shuō)說(shuō)約定的符號(hào),線性回歸參數(shù)主要由斜率和截距組成,這里用W表示斜率,b表示截距。大寫(xiě)的W表示這是一個(gè)向量。一般來(lái)說(shuō)是n_feauter_num數(shù)量,就是有多少個(gè)特征,W的shape就是(n_feauter_num,1),截距b是一個(gè)常數(shù),通過(guò)公式Y(jié)=W*X+b計(jì)算出目標(biāo)Y值,一般來(lái)說(shuō),在機(jī)器學(xué)習(xí)中約定原始值為Y,預(yù)測(cè)值為Y_hat。下面來(lái)談?wù)劸唧w實(shí)現(xiàn)步驟
構(gòu)造數(shù)據(jù)
構(gòu)造loss function(coss function)
分別對(duì)W和b計(jì)算梯度(也是對(duì)cost function分別對(duì)W和b求導(dǎo))
計(jì)算Y_hat
多次迭代計(jì)算梯度,直接收斂或者迭代結(jié)束
下面給出具體python代碼實(shí)現(xiàn),本代碼是通用代碼,可以任意擴(kuò)展W,代碼中計(jì)算loss和梯度的地方采用的向量實(shí)現(xiàn),因此增加W的維度不用修改代碼
import matplotlib.pyplot as pltimport numpy as npdef f(X): w = np.array([1, 3, 2]) b = 10 return np.dot(X, w.T) + bdef cost(X, Y, w, b): m = X.shape[0] Z = np.dot(X, w) + b Y_hat = Z.reshape(m, 1) cost = np.sum(np.square(Y_hat - Y)) / (2 * m) return costdef gradient_descent(X, Y, W, b, learning_rate): m = X.shape[0] W = W - learning_rate * (1 / m) * X.T.dot((np.dot(X, W) + b - Y)) b = b - learning_rate * (1 / m) * np.sum(np.dot(X, W) + b - Y) return W, bdef main(): # sample number m = 5 # feature number n = 3 total = m * n # construct data X = np.random.rand(total).reshape(m, n) Y = f(X).reshape(m, 1)# iris = datasets.load_iris()# X, Y = iris.data, iris.target.reshape(150, 1)# X = X[Y[:, 0] < 2]# Y = Y[Y[:, 0] < 2]# m = X.shape[0]# n = X.shape[1] # define parameter W = np.ones((n, 1), dtype=float).reshape(n, 1) b = 0.0 # def forward pass++ learning_rate = 0.1 iter_num = 10000 i = 0 J = [] while i < iter_num: i = i + 1 W, b = gradient_descent(X, Y, W, b, learning_rate) j = cost(X, Y, W, b) J.append(j) print(W, b) print(j) plt.plot(J) plt.show()if __name__ == '__main__': main()
可以看到,結(jié)果輸出很接近預(yù)設(shè)參數(shù)[1,3,2]和10
是不是感覺(jué)so easy.
step: 4998 loss: 3.46349593719e-07[[ 1.00286704] [ 3.00463459] [ 2.00173473]] 9.99528287088step: 4999 loss: 3.45443124835e-07[[ 1.00286329] [ 3.00462853] [ 2.00173246]] 9.99528904819step: 5000 loss: 3.44539028368e-07
感謝各位的閱讀,以上就是“怎么使用Python線性回歸方法”的內(nèi)容了,經(jīng)過(guò)本文的學(xué)習(xí)后,相信大家對(duì)怎么使用Python線性回歸方法這一問(wèn)題有了更深刻的體會(huì),具體使用情況還需要大家實(shí)踐驗(yàn)證。這里是創(chuàng)新互聯(lián),小編將為大家推送更多相關(guān)知識(shí)點(diǎn)的文章,歡迎關(guān)注!
本文名稱(chēng):怎么使用Python線性回歸方法
瀏覽地址:http://jinyejixie.com/article4/pocpie.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供響應(yīng)式網(wǎng)站、營(yíng)銷(xiāo)型網(wǎng)站建設(shè)、App設(shè)計(jì)、品牌網(wǎng)站設(shè)計(jì)、軟件開(kāi)發(fā)、微信小程序
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)