jjzjj

estimate

全部标签

python - 神经网络 : estimating sine wave frequency

为了学习KerasLSTM和RNN,我想创建一个简单的问题来解决:给定一个正弦波,我们可以预测它的频率吗?我不希望一个简单的神经网络能够预测频率,因为时间的概念在这里很重要。然而,即使使用LSTM,我也无法学习频率;我能够学习一个平凡的零作为估计频率(即使对于火车样本)。这是创建训练集的代码。importnumpyasnpimportmatplotlib.pyplotaspltdefcreate_sine(frequency):returnnp.sin(frequency*np.linspace(0,2*np.pi,2000))train_x=np.array([create_sine

python - Tensorflow - 如何为 tf.Estimator() CNN 使用 GPU 而不是 CPU

我认为它应该与withtf.device("/gpu:0")一起使用,但我应该把它放在哪里?我不认为它是:withtf.device("/gpu:0"):tf.app.run()那么我应该把它放在tf.app的main()函数中,还是放在我用于估算器的模型函数中?编辑:如果这有帮助,这是我的main()函数:defmain(unused_argv):"""Codetoloadtrainingfoldsdatapickleorgenerateoneifnotpresent"""#CreatetheEstimatormnist_classifier=tf.estimator.Estimat

python - 如何从检查点使用 tf.estimator.Estimator 进行预测?

我刚刚用tensorflow训练了一个CNN来识别太阳黑子。我的模型与this几乎相同.问题是我无法在任何地方找到关于如何使用训练阶段生成的检查点进行预测的明确解释。尝试使用标准恢复方法:saver=tf.train.import_meta_graph('./model/model.ckpt.meta')saver.restore(sess,'./model/model.ckpt')但后来我不知道如何运行它。尝试使用tf.estimator.Estimator.predict()像这样:#CreatetheEstimator(shouldreloadthelastcheckpointb

python - Tensorflow 2.0 Keras 的训练速度比 2.0 Estimator 慢 4 倍

我们最近为TF2.0切换到Keras,但是当我们将它与2.0上的DNNClassifierEstimator进行比较时,我们发现Keras的速度慢了大约4倍。但我一辈子都弄不明白为什么会这样。两者的其余代码是相同的,使用返回相同tf.data.Dataset的input_fn(),并使用相同的feature_columns。几天来一直在努力解决这个问题。任何帮助将不胜感激。谢谢估算器代码:estimator=tf.estimator.DNNClassifier(feature_columns=feature_columns,hidden_units=[64,64],activation

python - 如何在分布式环境中使用 Estimator API 在 Tensorboard 中显示运行时统计信息

Thisarticle说明如何将运行时统计信息添加到Tensorboard:run_options=tf.RunOptions(trace_level=tf.RunOptions.FULL_TRACE)run_metadata=tf.RunMetadata()summary,_=sess.run([merged,train_step],feed_dict=feed_dict(True),options=run_options,run_metadata=run_metadata)train_writer.add_run_metadata(run_metadata,'step%d'%i)t

python - TensorFlow Estimator ServingInputReceiver 功能与 receiver_tensors : when and why?

在previousquestion中serving_input_receiver_fn的目的和结构在answer中进行了探索。:defserving_input_receiver_fn():"""Forthesakeoftheexample,let'sassumeyourinputtothenetworkwillbea28x28grayscaleimagethatyou'llthenpreprocessasneeded"""input_images=tf.placeholder(dtype=tf.uint8,shape=[None,28,28,1],name='input_images

python - sklearn.ensemble.AdaBoostClassifier 不能接受 SVM 作为 base_estimator?

我正在做一个文本分类任务。现在我想使用ensemble.AdaBoostClassifier和LinearSVC作为base_estimator。但是,当我尝试运行代码时clf=AdaBoostClassifier(svm.LinearSVC(),n_estimators=50,learning_rate=1.0,algorithm='SAMME.R')clf.fit(X,y)发生错误。TypeError:AdaBoostClassifierwithalgorithm='SAMME.R'要求弱学习器支持使用predict_proba方法计算类别概率第一个问题是svm.LinearSVC

python - Sklearn Pipeline - 如何在自定义 Transformer(不是 Estimator)中继承 get_params

我在scikit-learn中有一个管道,它使用我定义的自定义转换器,如下所示:classMyPipelineTransformer(TransformerMixin):定义函数__init__,fit()andtransform()但是,当我在RandomizedSearchCV中使用管道时,出现以下错误:'MyPipelineTransformer'objecthasnoattribute'get_params'我已经在线阅读(例如下面的链接)(Python-sklearn)HowtopassparameterstothecustomizeModelTransformerclass

python - Sklearn Pipeline - 如何在自定义 Transformer(不是 Estimator)中继承 get_params

我在scikit-learn中有一个管道,它使用我定义的自定义转换器,如下所示:classMyPipelineTransformer(TransformerMixin):定义函数__init__,fit()andtransform()但是,当我在RandomizedSearchCV中使用管道时,出现以下错误:'MyPipelineTransformer'objecthasnoattribute'get_params'我已经在线阅读(例如下面的链接)(Python-sklearn)HowtopassparameterstothecustomizeModelTransformerclass

Consistent Video Depth Estimation——视频深度一致估计

Paper | Code文章核心:提出一种算法——重构单眼视频中所有像素的稠密的几何一致的深度,其利用了传统的SFM(从运动中重构)来建立视频中像素的几何约束。与经典重建中的特殊先验不同的是,本文使用的是基于学习的先验(如:训练卷积神经网络来估计单张图像的深度)。在测试阶段,微调网络来满足特定输入视频的几何约束,同时保留其在约束较少的视频部分来合成看似合理的深度细节。定量分析,方法确实比以往的单眼重构方法具有更高的精度和更高的几何一致性。可视化的情况下,本文的结果也似乎更为稳定。本文的算法能够处理-手拍的中等程度运动的视频。面向的应用包括场景重建、视觉特效等。介绍:利用图像序列进行三维场景重建