可视化网络集成的自举和随机先验

几个月前,我做了一个关于后深强化学习随机函数之前,在这里我展示了如何实施培训过程中PyTorch以及如何从中提取的模型不确定性。

使用相同的代码表现为前面,这些动画下面示出的40种型号的合奏与2-层MLP和在不同的设置20个隐藏单元的训练。这些可视化是非常好的了解使用或不引导或随机先验的时候什么都收敛差异。

天真合奏

这是自举无数据或添加一个随机的前一堂训练课,它只是一个天真的ensembling:

乐团与随机之前

这是合奏但是添加随机现有的(MLP具有相同的结构,具有随机加权和固定):

$$ Q _ {\ theta_k}(X)= F _ {\ theta_k}(X)+ P_K(x)的$$

最终模型\(Q _ {\ theta_k}(X)\)将合奏的k个模型将与未经训练的现有\(P_K(X拟合函数\(F _ {\ theta_k}(X)\))\):

乐团与随机之前和Bootstrap

这是与现有的随机函数和数据自举一个合奏:

具有固定之前和自举合奏

这是具有固定之前(SIN)和自举合奏:

引用本文为:基督教S. Perone,“可视化网络集成的自举和随机先验”,在亚洲金博宝未知领域,20/07/2019,//www.cpetem.com/2019/07/visualizing-network-ensembles-with-bootstrap-and-randomized-priors/

发表评论

您的电子邮件地址不会被公开。

本网站使用的Akismet,以减少垃圾邮件。了解您的意见如何处理数据