国产片侵犯亲女视频播放_亚洲精品二区_在线免费国产视频_欧美精品一区二区三区在线_少妇久久久_在线观看av不卡

腳本之家,腳本語(yǔ)言編程技術(shù)及教程分享平臺(tái)!
分類導(dǎo)航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務(wù)器之家 - 腳本之家 - Python - python機(jī)器學(xué)習(xí)庫(kù)scikit-learn:SVR的基本應(yīng)用

python機(jī)器學(xué)習(xí)庫(kù)scikit-learn:SVR的基本應(yīng)用

2021-07-22 14:20birdlove1987 Python

這篇文章主要介紹了python機(jī)器學(xué)習(xí)庫(kù)scikit-learn:SVR的基本應(yīng)用,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧

scikit-learnpython的第三方機(jī)器學(xué)習(xí)庫(kù),里面集成了大量機(jī)器學(xué)習(xí)的常用方法。例如:貝葉斯,svm,knn等。

scikit-learn的官網(wǎng) : http://scikit-learn.org/stable/index.html點(diǎn)擊打開鏈接

SVR是支持向量回歸(support vector regression)的英文縮寫,是支持向量機(jī)(SVM)的重要的應(yīng)用分支。

scikit-learn中提供了基于libsvm的SVR解決方案。

PS:libsvm是臺(tái)灣大學(xué)林智仁教授等開發(fā)設(shè)計(jì)的一個(gè)簡(jiǎn)單、易于使用和快速有效的SVM模式識(shí)別與回歸的軟件包。

我們自己隨機(jī)產(chǎn)生一些值,然后使用sin函數(shù)進(jìn)行映射,使用SVR對(duì)數(shù)據(jù)進(jìn)行擬合

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
from __future__ import division
import time
import numpy as np
from sklearn.svm import SVR
from sklearn.model_selection import GridSearchCV
from sklearn.model_selection import learning_curve
import matplotlib.pyplot as plt
 
rng = np.random.RandomState(0)
 
#############################################################################
# 生成隨機(jī)數(shù)據(jù)
X = 5 * rng.rand(10000, 1)
y = np.sin(X).ravel()
 
# 在標(biāo)簽中對(duì)每50個(gè)結(jié)果標(biāo)簽添加噪聲
 
y[::50] += 2 * (0.5 - rng.rand(int(X.shape[0]/50)))
 
X_plot = np.linspace(0, 5, 100000)[:, None]
 
#############################################################################
# 訓(xùn)練SVR模型
 
#訓(xùn)練規(guī)模
train_size = 100
#初始化SVR
svr = GridSearchCV(SVR(kernel='rbf', gamma=0.1), cv=5,
     param_grid={"C": [1e0, 1e1, 1e2, 1e3],
        "gamma": np.logspace(-2, 2, 5)})
#記錄訓(xùn)練時(shí)間
t0 = time.time()
#訓(xùn)練
svr.fit(X[:train_size], y[:train_size])
svr_fit = time.time() - t0
 
t0 = time.time()
#測(cè)試
y_svr = svr.predict(X_plot)
svr_predict = time.time() - t0

然后我們對(duì)結(jié)果進(jìn)行可視化處理

?
1
2
3
4
5
6
7
8
9
10
11
12
13
#############################################################################
# 對(duì)結(jié)果進(jìn)行顯示
plt.scatter(X[:100], y[:100], c='k', label='data', zorder=1)
plt.hold('on')
plt.plot(X_plot, y_svr, c='r',
   label='SVR (fit: %.3fs, predict: %.3fs)' % (svr_fit, svr_predict))
 
plt.xlabel('data')
plt.ylabel('target')
plt.title('SVR versus Kernel Ridge')
plt.legend()
 
plt.figure()

python機(jī)器學(xué)習(xí)庫(kù)scikit-learn:SVR的基本應(yīng)用

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
##############################################################################
# 對(duì)訓(xùn)練和測(cè)試的過(guò)程耗時(shí)進(jìn)行可視化
X = 5 * rng.rand(1000000, 1)
y = np.sin(X).ravel()
y[::50] += 2 * (0.5 - rng.rand(int(X.shape[0]/50)))
sizes = np.logspace(1, 4, 7)
for name, estimator in {
      "SVR": SVR(kernel='rbf', C=1e1, gamma=10)}.items():
 train_time = []
 test_time = []
 for train_test_size in sizes:
  t0 = time.time()
  estimator.fit(X[:int(train_test_size)], y[:int(train_test_size)])
  train_time.append(time.time() - t0)
 
  t0 = time.time()
  estimator.predict(X_plot[:1000])
  test_time.append(time.time() - t0)
 
 plt.plot(sizes, train_time, 'o-', color="b" if name == "SVR" else "g",
    label="%s (train)" % name)
 plt.plot(sizes, test_time, 'o--', color="r" if name == "SVR" else "g",
    label="%s (test)" % name)
 
plt.xscale("log")
plt.yscale("log")
plt.xlabel("Train size")
plt.ylabel("Time (seconds)")
plt.title('Execution Time')
plt.legend(loc="best")

python機(jī)器學(xué)習(xí)庫(kù)scikit-learn:SVR的基本應(yīng)用

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
################################################################################
# 對(duì)學(xué)習(xí)過(guò)程進(jìn)行可視化
plt.figure()
 
svr = SVR(kernel='rbf', C=1e1, gamma=0.1)
train_sizes, train_scores_svr, test_scores_svr = \
 learning_curve(svr, X[:100], y[:100], train_sizes=np.linspace(0.1, 1, 10),
     scoring="neg_mean_squared_error", cv=10)
 
plt.plot(train_sizes, -test_scores_svr.mean(1), 'o-', color="r",
   label="SVR")
 
plt.xlabel("Train size")
plt.ylabel("Mean Squared Error")
plt.title('Learning curves')
plt.legend(loc="best")
 
plt.show()

python機(jī)器學(xué)習(xí)庫(kù)scikit-learn:SVR的基本應(yīng)用

看見了熟悉的LOSS下降圖,我仿佛又回到了學(xué)生時(shí)代。。

以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持服務(wù)器之家。

原文鏈接:https://blog.csdn.net/zhurui_idea/article/details/60329731

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 我要看黄色一级大片 | 久久久久久久久久久久国产精品 | 女人性做爰免费网站 | 91在线视频观看 | 国产精品亚洲一区二区三区在线 | 91福利视频免费 | 波多野吉衣网站 | 久草精品在线 | 国产成人精品一区二区三区四区 | 在线国产小视频 | 国产资源在线视频 | 韩日在线观看视频 | 国产亚洲精品久久19p | 日韩一区二区三区在线观看 | 久久久精品久久久 | www.国产| 亚洲精品黄色 | 一区在线视频 | 精品久久在线 | 久久黄网| 久久久免费国产 | 国产三级在线 | 看片久久 | 亚洲高清视频在线 | 免费激情网站 | 久久99国产精一区二区三区 | 亚洲国产精品久久久 | 黄色三级网站在线观看 | 亚洲精品乱码久久久久久金桔影视 | 亚洲精品久久 | 在线欧美亚洲 | 91视频com| 成人黄色在线观看 | 91视频网页 | 美女视频一区二区三区 | 99热国产精品 | 日韩福利电影 | 91精品国产91久久久久久 | 国产精品成人一区二区三区夜夜夜 | 中文字幕av亚洲精品一部二部 | 高清国产午夜精品久久久久久 |