当前位置:首页 » 翻译 
  • 匿名
关注:1 2013-05-23 12:21

求翻译:note that,while gradient descent can be susceptible to local minima in general ,the optimization problem we have posed here for linear regression has only one global ,and no other local ,optima;thus gradient descent always converges(assuming the learning rate A is not too large)to the global minimum.Indeed J is a conv是什么意思?

待解决 悬赏分:1 - 离问题结束还有
note that,while gradient descent can be susceptible to local minima in general ,the optimization problem we have posed here for linear regression has only one global ,and no other local ,optima;thus gradient descent always converges(assuming the learning rate A is not too large)to the global minimum.Indeed J is a conv
问题补充:

  • 匿名
2013-05-23 12:21:38
null
  • 匿名
2013-05-23 12:23:18
请注意 , 同时、渐变的血统很容易受到当地航海图的常规 , 优化过程的问题我们这里提出的线性回归只有一全球性的 , 并没有其他地方 , optima ; 因此渐变血统始终收敛 ( 假设学习率不太大 ) 的全球最小的的确是 J 是凸二次方程函数。
  • 匿名
2013-05-23 12:24:58
注意,而梯度下降可以是易受地方极小值一般,我们为线性回归这里提出了的优化问题只没有一全球性和其他本机,最宜; 因而梯度下降总聚合(假设学习的率A不是太大)到全球性极小值。的确J是一个凸面二次函数。
  • 匿名
2013-05-23 12:26:38
请注意,虽然梯度下降一般可以容易受到局部极小值,优化问题我们这里提出为线性回归只有一个全球化的而且没有其他的地方,最优; 因此梯度下降总是收敛 (假设学习率 A 不太大) 到全局最小值。事实上 J 是一个凸二次函数。
  • 匿名
2013-05-23 12:28:18
正在翻译,请等待...
 
 
网站首页

湖北省互联网违法和不良信息举报平台 | 网上有害信息举报专区 | 电信诈骗举报专区 | 涉历史虚无主义有害信息举报专区 | 涉企侵权举报专区

 
关 闭