|
关注:1
2013-05-23 12:21
求翻译:Now, let us take a look at the convergence properties of mean shift. Cheng [20] claimed that mean shift is an instance of gradient ascent with an adaptive step size. He discovered that unlike Newton’s method, each iteration ofmean shift is guaranteed to bring us closer to a stationary point. On the other hand, like New是什么意思?![]() ![]() Now, let us take a look at the convergence properties of mean shift. Cheng [20] claimed that mean shift is an instance of gradient ascent with an adaptive step size. He discovered that unlike Newton’s method, each iteration ofmean shift is guaranteed to bring us closer to a stationary point. On the other hand, like New
问题补充: |
|
2013-05-23 12:21:38
null
|
|
2013-05-23 12:23:18
现在 , 让我们看一下的收敛的意思是 shift 。 Cheng [ 20 ] 声称 , 意味着换档是一种实例的梯度的攀登与自适应步长大小。 他发现 , 与牛顿的方法 , 每个迭代 ofmean shift 是保证使我们更接近于静止的点。 犃硪环矫 , 如牛顿的方法意味着换档可能会卡在马鞍 pointor 错误一开始在当地最小的本地最大 [ 22 ] 。 最可能的 , 若干不连续时可能发生这种情况的 Eq 。
|
|
2013-05-23 12:24:58
现在,让我们看一看在卑鄙转移汇合物产。 城 (20) 声称手段转移是梯度上升事例以能适应的步长。 他发现不同于牛顿的方法,每个叠代ofmean转移被保证带来我们离固定式点较近。 另一方面,象牛顿的方法,卑鄙转移可能得到陷进在马鞍pointor差错a以一个地方极小值开始为一个地方最大值 (22)。 很可能,一定数量的间断性可能发生,当Eq。 7被寻找 (22)。 避免这些间断性的一个方法是采取在finitesimal步为移动地方梯度的方向。 不幸地,如果步长是太大,汇合的率不可能被保证 (21)。 在本文,就业过滤特点书信也许导致一个最佳方案这个问题。
|
|
2013-05-23 12:26:38
现在,让我们看看均值漂移的收敛性质。[20] 阿城,均值漂移是自适应步长梯度上升的一个实例。他发现与牛顿迭代法,不同的是每个迭代 ofmean 班次保证使我们更接近于一个固定的点。另一方面,像牛顿迭代法,均值漂移可以卡住在鞍 pointor 错误为当地最大的 [22] 的局部最小的一个开始。最可能的是,大量的不连续性可以发生时的情商 7 是寻求 [22]。要避免这些不连续性之一是方法的采取 infinitesimal 移动本地渐变的方向。不幸的是,如果一步大小太大,收敛速度无法保证 [21]。在本文中,SIFT 特征对应的就业可能导致这个问题的最优解。
|
|
2013-05-23 12:28:18
正在翻译,请等待...
|
湖北省互联网违法和不良信息举报平台 | 网上有害信息举报专区 | 电信诈骗举报专区 | 涉历史虚无主义有害信息举报专区 | 涉企侵权举报专区