当前位置:首页 » 翻译 
  • 匿名
关注:1 2013-05-23 12:21

求翻译:Reducing the size of the vocabulary is not a good option since vocabulary size is positively correlated with good performance. Differently, [32, 33] mine patterns from high-level semantic features for which smaller representational space are needed. However, such techniques can work only if the high-level features are 是什么意思?

待解决 悬赏分:1 - 离问题结束还有
Reducing the size of the vocabulary is not a good option since vocabulary size is positively correlated with good performance. Differently, [32, 33] mine patterns from high-level semantic features for which smaller representational space are needed. However, such techniques can work only if the high-level features are
问题补充:

  • 匿名
2013-05-23 12:21:38
减少词汇的大小不是因为词汇量的好选择是积极与良好的性能相关。
  • 匿名
2013-05-23 12:23:18
因为词汇量大小肯定地关联与好成绩,减少词汇量的大小不是一个好选择。 [32, 33]矿样式与更小的代表空间是需要的高级语义特点不同。然而,这样技术可能运作,只有当恰当地查出高级特点,是一个未解决的问题。
  • 匿名
2013-05-23 12:24:58
因为词汇量大小正面地关联以好表现,减少词汇量的大小不是一个好选择。 不同地, (32, 33) 开采样式从更小的代表空间是需要的高级语义特点。 然而,这样技术可能运作,只有当高级特点正确地被查出,是一个未解决的问题。 相反,我们显示第3.1部分怎么我们的binarization方法能保存最初的real-valued表示法的信息,当提供项目时的有限数字。
  • 匿名
2013-05-23 12:26:38
由于词汇量的大小呈正相关具有良好的性能,减少词汇量的大小不是一个不错的选择。以不同的方式,[32、 33] 矿井模式从高层语义特征的较小的代表性空间需要。然而,这种技术可以工作只有当高级别的功能正确地检测,这是一个悬而未决的问题。与此相反的是,我们表明第 3.1 节如何我们图像二值化方法是能够保持初始的实数表示同时提供有限的项数的信息。
  • 匿名
2013-05-23 12:28:18
减少词汇的大小不是自从词汇大小的一个好的选项被肯定地以好的性能相互关联。以不同方式, (32, 33) 我的从高级语义特征的模式其中,更小代表的空间需要。然而,这样的技术只有当高级特征正确地被检测时可以工作,是一个未决问题。相比之下,我们告诉第 3.1 节我们的 binarization 方法怎样能保护最初实际估价的代表的信息而提供条款的一个有限数字。
 
 
网站首页

湖北省互联网违法和不良信息举报平台 | 网上有害信息举报专区 | 电信诈骗举报专区 | 涉历史虚无主义有害信息举报专区 | 涉企侵权举报专区

 
关 闭