当前位置:首页 » 翻译 
  • 匿名
关注:1 2013-05-23 12:21

求翻译:where a and b are constants and are usually set close to zero. By integrating over the hyperparameters, we can obtain a student-t prior for each weight, which is known to enforce sparse representations during learning by setting some feature weights to zero and avoiding overfitting.是什么意思?

待解决 悬赏分:1 - 离问题结束还有
where a and b are constants and are usually set close to zero. By integrating over the hyperparameters, we can obtain a student-t prior for each weight, which is known to enforce sparse representations during learning by setting some feature weights to zero and avoiding overfitting.
问题补充:

  • 匿名
2013-05-23 12:21:38
其中a和b是常数,并且通常设置为接近零。
  • 匿名
2013-05-23 12:23:18
其中A和B都是常量,通常设置接近于零。 通过集成在hyperparameters,我们可以获得一个学生-t事先为每个重量,将其称为执行稀疏陈述学习期间通过设置一些功能重量为零,避免overfitting。
  • 匿名
2013-05-23 12:24:58
那里a和b是常数和通常被设置近零。 通过集成在hyperparameters,我们可以预先得到一名学生t为每重量,通过调整一些特点重量到零和避免overfitting知道强制执行稀稀落落的表示法在学会期间。
  • 匿名
2013-05-23 12:26:38
在那里和 b 是常量,通常设置几乎为零。通过集成在参数,我们可以获取每个重量,众所周知,在学习过程中执行稀疏表示的学生 t 事先通过将一些特征权值设置为零,避免过度臃肿。
  • 匿名
2013-05-23 12:28:18
正在翻译,请等待...
 
 
网站首页

湖北省互联网违法和不良信息举报平台 | 网上有害信息举报专区 | 电信诈骗举报专区 | 涉历史虚无主义有害信息举报专区 | 涉企侵权举报专区

 
关 闭