当前位置:首页 » 翻译 
  • 匿名
关注:1 2013-05-23 12:21

求翻译:When should we stop splitting during training? If we continue splitting too far,the data will be overfit. In the extreme, each terminal (or leaf) node will correspond to a single training point and the full tree is merely a look-up table,which cannot be expected to generalize well to (noisy) test data. Conversely, if s是什么意思?

待解决 悬赏分:1 - 离问题结束还有
When should we stop splitting during training? If we continue splitting too far,the data will be overfit. In the extreme, each terminal (or leaf) node will correspond to a single training point and the full tree is merely a look-up table,which cannot be expected to generalize well to (noisy) test data. Conversely, if s
问题补充:

  • 匿名
2013-05-23 12:21:38
正在翻译,请等待...
  • 匿名
2013-05-23 12:23:18
我们在训练期间,什么时候应该停止分裂?如果我们持续太分裂,数据将是overfit。非常,每个终端(或叶子)结将对应于训练点,并且充分的树仅仅是查寻表,不可能期望很好推断(喧闹的)测验数据。相反地,如果分裂太及早被停止,然后在训练数据的错误不是十分地低的,并且与测验数据的表现将遭受。
  • 匿名
2013-05-23 12:24:58
我们何时应该停止分裂在训练期间? 如果我们持续太分裂,数据将是overfit。 非常,每个终端 (或) 叶节点将对应于训练点,并且充分的树仅仅是查寻表,不可能期望很好推断到 (喧闹的) 测验数据。 相反地,如果分裂太及早被停止,然后错误在训练数据充足地不是低落,并且表现以测验数据将遭受。
  • 匿名
2013-05-23 12:26:38
我们何时应该停止分裂期间培训?如果我们继续分裂太远,将 overfit 数据。在极端情况下,每个终端 (或叶) 的节点将对应于一个单一的培训点和完整的树是只是查找表,不能期望推广好到 (噪音) 的测试数据。相反,如果停止分裂,太早了,然后培训数据上的错误不是足够低,性能的测试数据将会受到影响。
  • 匿名
2013-05-23 12:28:18
当我们停止拆分应在培训? 如果我们继续分裂得太远,数据将overfit。 在极端的情况下,每一个接线端子[或叶]节点将对应于一个单一的培训点,是全树只是一个查找表,不能指望一概而论,[嘈杂]测试数据。 与此相反,如果拆分停止得太早了,然后上的错误数据的培训是不足够低和性能与测试数据都将受到影响。
 
 
网站首页

湖北省互联网违法和不良信息举报平台 | 网上有害信息举报专区 | 电信诈骗举报专区 | 涉历史虚无主义有害信息举报专区 | 涉企侵权举报专区

 
关 闭