热线电话:13121318867

登录
2018-11-29 阅读量: 875
用贝叶斯回归来解决回归问题
>>> from sklearn import linear_model
>>> X = [[0., 0.], [1., 1.], [2., 2.], [3., 3.]]
>>> Y = [0., 1., 2., 3.]
>>> reg = linear_model.BayesianRidge()
>>> reg.fit(X, Y)
BayesianRidge(alpha_1=1e-06, alpha_2=1e-06, compute_score=False, copy_X=True,
fit_intercept=True, lambda_1=1e-06, lambda_2=1e-06, n_iter=300,
normalize=False, tol=0.001, verbose=False)

在模型训练完成后,可以用来预测新值:

>>>>>> reg.predict ([[1, 0.]]) array([ 0.50000013]) 

权值

w

可以被这样访问:

>>>>>> reg.coef_ array([ 0.49999993,  0.49999993]) 

由于贝叶斯框架的缘故,权值与 普通最小二乘法 产生的不太一样。 但是,贝叶斯岭回归对病态问题(ill-posed)的鲁棒性要更好。

0.0000
1
关注作者
收藏
评论(0)

发表评论

暂无数据
推荐帖子