当前位置:首页 » 翻译 
  • 匿名
关注:1 2013-05-23 12:21

求翻译:Equation (7) is a differentiable function, so any variants of gradient descent method can be used to minimize the Eq. (7) to train a deep bi-firing neural network. In this work, to enhance the speed of convergence, the mini-batch stochastic gradient descent[24] is used in our experiments.是什么意思?

待解决 悬赏分:1 - 离问题结束还有
Equation (7) is a differentiable function, so any variants of gradient descent method can be used to minimize the Eq. (7) to train a deep bi-firing neural network. In this work, to enhance the speed of convergence, the mini-batch stochastic gradient descent[24] is used in our experiments.
问题补充:

  • 匿名
2013-05-23 12:21:38
等式(7)是一个微函数,所以梯度下降方法的任何变体可用于以最小化方程。
  • 匿名
2013-05-23 12:23:18
公式(7)是一个吐功能,因此任何变种的梯度下降法可用于最大程度地减少EQ。 (7)培养一个深双触发神经网络。 在这项工作中,为提高收敛速度,迷你的批处理随机梯度下降[24]是我们实验中使用。
  • 匿名
2013-05-23 12:24:58
式 (7) 是一个可微函数,因此梯度下降方法所有变形可以用于使Eq减到最小。 () 训练一个深刻的双生火神经网络的7。 在这工作,提高汇合的速度,微型批随机梯度下降(24) 用于我们的实验。
  • 匿名
2013-05-23 12:26:38
正在翻译,请等待...
  • 匿名
2013-05-23 12:28:18
正在翻译,请等待...
 
 
网站首页

湖北省互联网违法和不良信息举报平台 | 网上有害信息举报专区 | 电信诈骗举报专区 | 涉历史虚无主义有害信息举报专区 | 涉企侵权举报专区

 
关 闭