目前我已经使用 def 函数成功定义了一个自定义内核函数(预计算内核矩阵),现在我正在使用 GridSearchCV 函数来获取最佳参数。
因此,在自定义内核函数中,总共有 2 个参数需要调整(即下例中的 gamm 和 sea_gamma),而且对于 SVR 模型,cost c参数也必须调整。但直到现在,我只能使用 GridSearchCV 调整 cost c 参数 -> 请参阅下面的第一部分:示例。
我已经搜索了一些类似的解决方案,例如:
Is it possible to tune parameters with grid search for custom kernels in scikit-learn?
它说“一种方法是使用 Pipeline、SVC(kernel='precomputed') 并将您的自定义内核函数包装为 sklearn 估计器(BaseEstimator 和 TransformerMixin 的子类)) ”但是这仍然与我的案例和问题不同,但是,我尝试基于此解决方案解决问题,但到目前为止它没有打印任何输出,甚至没有打印任何错误。 -> 请引用第二部分:管道解决方案。
第一部分:示例->我在网格搜索中的原始自定义内核和评分方法是:
import numpy as np
import pandas as pd
import sklearn.svm as svm
from sklearn import preprocessing,svm, datasets
from sklearn.preprocessing import StandardScaler, MaxAbsScaler
from sklearn.metrics.pairwise import rbf_kernel
from sklearn.grid_search import GridSearchCV
from sklearn.svm import SVR
from sklearn.pipeline import Pipeline
from sklearn.metrics.scorer import make_scorer
# weighting the vectors
def distance_scale(X,Y):
K = np.zeros((X.shape[0],Y.shape[0]))
gamma_sea =192
for i in range(X.shape[0]):
for j in range(Y.shape[0]):
dis = min(np.abs(X[i]-Y[j]),1-np.abs(X[i]-Y[j]))
K[i,j] = np.exp(-gamma_sea*dis**2)
return K
# custom RBF kernel : kernel matrix calculation
def sea_rbf(X,Y):
gam=1
t1 = X[:, 5:6]
t2 = Y[:, 5:6]
X = X[:, 0:5]
Y = Y[:, 0:5]
d = distance_scale(t1,t2)
return rbf_kernel(X,Y,gamma=gam)*d
def my_custom_loss_func(y_true, y_pred):
error=np.abs((y_true - y_pred)/y_true)
return np.mean(error)*100
my_scorer = make_scorer(my_custom_loss_func,greater_is_better=False)
# Generate sample data
X_train=np.random.random((100,6))
y_train=np.random.random((100,1))
X_test=np.random.random((40,6))
y_test=np.random.random((40,1))
y_train=np.ravel(y_train)
y_test=np.ravel(y_test)
# scale the input and output in training data set, also scale the input
#in testing data set
max_scale = preprocessing.MaxAbsScaler().fit(X_train)
X_train_max = max_scale.transform(X_train)
X_test_max = max_scale.transform(X_test)
max_scale_y = preprocessing.MaxAbsScaler().fit(y_train)
y_train_max = max_scale_y.transform(y_train)
#precompute the kernel matrix
gam=sea_rbf(X_train_max,X_train_max)
#grid search for the model with the custom scoring method, but can only tune the *cost c* parameter in this case.
clf= GridSearchCV(SVR(kernel='precomputed'),
scoring=my_scorer,
cv=5,
param_grid={"C": [0.1,1,2,3,4,5]
})
clf.fit(gam, y_train_max)
print(clf.best_params_)
print(clf.best_score_)
print(clf.grid_scores_)
第二部分:管道解决方案
from __future__ import print_function
from __future__ import division
import sys
import sklearn
from sklearn.base import BaseEstimator, TransformerMixin
from sklearn.pipeline import Pipeline
# Wrapper class for the custom kernel RBF_kernel
class RBF2Kernel(BaseEstimator,TransformerMixin):
def __init__(self, gamma=1,sea_gamma=20):
super(RBF2Kernel,self).__init__()
self.gamma = gamma
self.sea_gamma = sea_gamma
def fit(self, X, y=None, **fit_params):
return self
#calculate the kernel matrix
def transform(self, X):
self.a_train_ = X[:, 0:5]
self.b_train_ = X[:, 0:5]
self.t1_train_ = X[:, 5:6]
self.t2_train_ = X[:, 5:6]
sea=16
K = np.zeros((t1.shape[0],t2.shape[0]))
for i in range(self.t1_train_.shape[0]):
for j in range(self.t2_train_.shape[0]):
dis = min(np.abs(self.t1_train_[i]*sea- self.t2_train_[j]*sea),sea-np.abs(self.t1_train_[i]*sea-self.t2_train_[j]*sea))
K[i,j] = np.exp(-self.gamma_sea *dis**2)
return K
return rbf_kernel(self.a_train_ , self.b_train_, gamma=self.gamma)*K
def main():
print('python: {}'.format(sys.version))
print('numpy: {}'.format(np.__version__))
print('sklearn: {}'.format(sklearn.__version__))
# Generate sample data
X_train=np.random.random((100,6))
y_train=np.random.random((100,1))
X_test=np.random.random((40,6))
y_test=np.random.random((40,1))
y_train=np.ravel(y_train)
y_test=np.ravel(y_test)
# Create a pipeline where our custom predefined kernel RBF2Kernel
# is run before SVR.
pipe = Pipeline([
('sc', MaxAbsScaler()),
('rbf2', RBF2Kernel()),
('svm', SVR()),
])
# Set the parameter 'gamma' of our custom kernel by
# using the 'estimator__param' syntax.
cv_params = dict([
('rbf2__gamma', 10.0**np.arange(-2,2)),
('rbf2__sea_gamma', 10.0**np.arange(-2,2)),
('svm__kernel', ['precomputed']),
('svm__C', 10.0**np.arange(-2,2)),
])
# Do grid search to get the best parameter value of 'gamma'.
# here i am also trying to tune the parameters of the custom kernel
model = GridSearchCV(pipe, cv_params, verbose=1, n_jobs=-1,scoring=my_scorer)
model.fit(X_train, y_train)
y_pred = model.predict(X_test)
acc_test = mean_absolute_error(y_test, y_pred)
mape_100 = my_custom_loss_func (y_test, y_pred)
print("Test accuracy: {}".format(acc_test))
print("mape_100: {}".format(mape_100))
print("Best params:")
print(model.best_params_)
print(model.grid_scores_)
if __name__ == '__main__':
main()
所以,总结一下:
非常感谢您的阅读,希望详细的描述能让您更清楚一点,欢迎所有建议:)
最佳答案
使用函数包装模型:
def GBC(self):
model = GradientBoostingRegressor()
p = [{'learning_rate':[[0.0005,0.01,0.02,0.03]],'n_estimators':[[for i in range(1,100)]],'max_depth':[[4]]}]
return model,p
然后通过参数网格用内核测试它:
def kernel(self,model,p):
parameter = ParameterGrid(p)
clf = GridSearchCV(model, parameter, cv=5, scoring='neg_mean_squared_error',n_jobs=2)
clf.fit(X,Y)
使用这种方法,您可以在不同的函数上管理函数的种类及其超参数集,直接在 main 中调用该函数
a = the_class()
a.kernel(a.GBC())
关于python - 如何在 scikit-learn 中使用管道调整自定义内核函数的参数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43470610/
我正在学习如何使用Nokogiri,根据这段代码我遇到了一些问题:require'rubygems'require'mechanize'post_agent=WWW::Mechanize.newpost_page=post_agent.get('http://www.vbulletin.org/forum/showthread.php?t=230708')puts"\nabsolutepathwithtbodygivesnil"putspost_page.parser.xpath('/html/body/div/div/div/div/div/table/tbody/tr/td/div
我有一个Ruby程序,它使用rubyzip压缩XML文件的目录树。gem。我的问题是文件开始变得很重,我想提高压缩级别,因为压缩时间不是问题。我在rubyzipdocumentation中找不到一种为创建的ZIP文件指定压缩级别的方法。有人知道如何更改此设置吗?是否有另一个允许指定压缩级别的Ruby库? 最佳答案 这是我通过查看rubyzip内部创建的代码。level=Zlib::BEST_COMPRESSIONZip::ZipOutputStream.open(zip_file)do|zip|Dir.glob("**/*")d
类classAprivatedeffooputs:fooendpublicdefbarputs:barendprivatedefzimputs:zimendprotecteddefdibputs:dibendendA的实例a=A.new测试a.foorescueputs:faila.barrescueputs:faila.zimrescueputs:faila.dibrescueputs:faila.gazrescueputs:fail测试输出failbarfailfailfail.发送测试[:foo,:bar,:zim,:dib,:gaz].each{|m|a.send(m)resc
很好奇,就使用rubyonrails自动化单元测试而言,你们正在做什么?您是否创建了一个脚本来在cron中运行rake作业并将结果邮寄给您?git中的预提交Hook?只是手动调用?我完全理解测试,但想知道在错误发生之前捕获错误的最佳实践是什么。让我们理所当然地认为测试本身是完美无缺的,并且可以正常工作。下一步是什么以确保他们在正确的时间将可能有害的结果传达给您? 最佳答案 不确定您到底想听什么,但是有几个级别的自动代码库控制:在处理某项功能时,您可以使用类似autotest的内容获得关于哪些有效,哪些无效的即时反馈。要确保您的提
假设我做了一个模块如下:m=Module.newdoclassCendend三个问题:除了对m的引用之外,还有什么方法可以访问C和m中的其他内容?我可以在创建匿名模块后为其命名吗(就像我输入“module...”一样)?如何在使用完匿名模块后将其删除,使其定义的常量不再存在? 最佳答案 三个答案:是的,使用ObjectSpace.此代码使c引用你的类(class)C不引用m:c=nilObjectSpace.each_object{|obj|c=objif(Class===objandobj.name=~/::C$/)}当然这取决于
出于纯粹的兴趣,我很好奇如何按顺序创建PI,而不是在过程结果之后生成数字,而是让数字在过程本身生成时显示。如果是这种情况,那么数字可以自行产生,我可以对以前看到的数字实现垃圾收集,从而创建一个无限系列。结果只是在Pi系列之后每秒生成一个数字。这是我通过互联网筛选的结果:这是流行的计算机友好算法,类机器算法:defarccot(x,unity)xpow=unity/xn=1sign=1sum=0loopdoterm=xpow/nbreakifterm==0sum+=sign*(xpow/n)xpow/=x*xn+=2sign=-signendsumenddefcalc_pi(digits
我正在尝试使用ruby和Savon来使用网络服务。测试服务为http://www.webservicex.net/WS/WSDetails.aspx?WSID=9&CATID=2require'rubygems'require'savon'client=Savon::Client.new"http://www.webservicex.net/stockquote.asmx?WSDL"client.get_quotedo|soap|soap.body={:symbol=>"AAPL"}end返回SOAP异常。检查soap信封,在我看来soap请求没有正确的命名空间。任何人都可以建议我
关闭。这个问题是opinion-based.它目前不接受答案。想要改进这个问题?更新问题,以便editingthispost可以用事实和引用来回答它.关闭4年前。Improvethisquestion我想在固定时间创建一系列低音和高音调的哔哔声。例如:在150毫秒时发出高音调的蜂鸣声在151毫秒时发出低音调的蜂鸣声200毫秒时发出低音调的蜂鸣声250毫秒的高音调蜂鸣声有没有办法在Ruby或Python中做到这一点?我真的不在乎输出编码是什么(.wav、.mp3、.ogg等等),但我确实想创建一个输出文件。
我在我的项目目录中完成了compasscreate.和compassinitrails。几个问题:我已将我的.sass文件放在public/stylesheets中。这是放置它们的正确位置吗?当我运行compasswatch时,它不会自动编译这些.sass文件。我必须手动指定文件:compasswatchpublic/stylesheets/myfile.sass等。如何让它自动运行?文件ie.css、print.css和screen.css已放在stylesheets/compiled。如何在编译后不让它们重新出现的情况下删除它们?我自己编译的.sass文件编译成compiled/t
我想将html转换为纯文本。不过,我不想只删除标签,我想智能地保留尽可能多的格式。为插入换行符标签,检测段落并格式化它们等。输入非常简单,通常是格式良好的html(不是整个文档,只是一堆内容,通常没有anchor或图像)。我可以将几个正则表达式放在一起,让我达到80%,但我认为可能有一些现有的解决方案更智能。 最佳答案 首先,不要尝试为此使用正则表达式。很有可能你会想出一个脆弱/脆弱的解决方案,它会随着HTML的变化而崩溃,或者很难管理和维护。您可以使用Nokogiri快速解析HTML并提取文本:require'nokogiri'h