翻译实践译文 - 图文(3)

2019-05-17 10:43

v = Bz推导出数据向量Z。

为了计划的具体性,我们选择一个矩阵A?Rm?N作为合适的压缩感知矩阵,如高斯随机矩阵。然后我们以这个方法选取矩阵B?Rm?N使n + m = N,它的列

和A的行成正交补,因此保证AB=0.由这些设定,我们可以收集许多和Cm/ln(N/m)一样大的信息错误。

统计和机器学习(能力) 统计回归的目的是根据确定的输入数据预测结果。一般选用线性方程y=Ax+e,其中A?Rm?N—一般称之设计或预测矩阵—收集输入数据Y表示输出数据,e表示

一个随机噪音向量。

向量X是一个需要从数据中估计的参数。在一个统计结构中,一般使用标记法(n, p)代替(m,N),但我们保留下后一个以保持连贯。

在临床研究中,举例来说,输入Aj,k可能指第j位病人那一行的血压、体重、身高、基因数据,表示一定的特征,等等。对应的输出

可能是另一个相关量,

例如,第j位病人得某种病的可能性。有了m位病人的数据,回归目标是要适合于模型,也就是说定下参数向量X。

实际上,参数N的数量远大于观测数量m,所以即使没有干扰,在没有更多假设的情况下是无法解出适当的参数X的。然而在许多情况下,只有一小部分参数对预测做出贡献,但是这些有影响的参数是推理出来的未知数。这导致了向量x稀疏,再一次我们得到了标准压缩感知问题。统计项中,定下一个稀疏参数向量相当于选择相关解释变量,也就是x的支集。这也会涉及模型选择。

这本书中提到的方法也适用于这种情况。然而,这种情况与噪声向量e的随机性一般步骤存在轻微的背离。特别是,不同二次约束一般考虑称之为LASSO(最小绝对收缩选择算子)

最小化问题(1.4),

对一个适当的正则化参数τ,其依赖于噪音的变化。更多的变化称之为丹齐格选择

或择λ。

规则化问题(有时候叫做LASSO或基追踪降噪)再一次为了适合的选

我们将不再关注统计背景,但是我们简单的提及接近最优统计估计特征可以在A情况下,在LASSO和丹齐格选择中同时展现。它和下一章中的问题类似。

在机器学习中出现一个密切相关的回归问题。给予任意随机的样本

其中tj是一些输入参数向量同时yj是一个标量输出。我们希望从接下

来输入数据t中预测输出数据y。将输入t和输出y联系起来的模型是

y=f(t)+e

其中e表示随机噪音。目标是通过培养信号

来获得函数f。没有有关

f的更多猜想,这将是一个不可能的任务。因此,我们假设f在已知的函数ψ1,. . . , ψN

的程序库有一个稀疏扩大,也就是说函数可以写成

其中x是一个稀疏向量。提出输入为

的矩阵A?Rm?N 我们获得模型y=Ax+e,目标是为了估计稀疏系数向量x。这和上面提到的问题有同样的构造,相同的评估程序包括LASSO和丹齐格选择应用。

低阶矩阵还原和矩阵完成

最后,让我们通过它的一些应用讨论下压缩感知的扩展。不局限于还原一个

稀疏向量x?CN,我们现在将目标瞄准一个不完全信息的矩阵X?Cn1?n2。假设一个有低阶的稀疏度x。实际上,相比所有的矩阵集,给予矩阵低阶集,使之略微复杂对还原矩阵来说更有理。

对于线性图A:X?Cn1?n2→Cm ,m

阶。最单纯方

是非确定性多项式复杂问题,但是压缩感知问题与其相似也有所帮助。 为了论证这种相似,我们考虑x的奇异值分解,也就是

这里

是x的奇异值,而且

分别是左右奇异向量。我们参考附录A.2详情。矩阵是r

阶的,有且仅有向量

的奇异值是r级稀疏也就是

阶。想到有l1最小化方法求压缩感知,很自然的就引入一种核范数作为l1-norm

的奇异值,也就是

接下来我们考虑核范数最小化问题。

这是一个可以被高效解决的凸形最佳问题,例如,半定程序再成型。 一个非常类似于稀疏向量还原的理论可以被发现,A的合适条件确保通过核范数最小化的精确和逼近还原(和其他算法)。再一次,随机图片出现最优,在

m?Crmax{n1,n2}情况下,矩阵最高阶r可以从m测量值中得到很高的可能性还原。

这种边界是最佳的,因为右方自由度数足以描述一个r阶比向量形式,这里明显没有涉及对数因数。

矩阵。相

作为一种普遍的特殊情况,完全矩阵问题变为填充失去的低阶矩阵项问题。测量图A为指数j, k取一些相关l的项

。这个计划显现,例如,

在消费者品味预测中,假设在一个(线上)商店出售物品以矩阵行检索,消费者以矩阵列检索,可以估价这些商品。并不是每一个消费者会估价每一个商品,所以矩阵只有有限的元可用。为了个性化广告的目的,商店对预测整个估价矩阵感兴趣。一般,如果两个消费者都喜欢一些商品的子集,则他们将也会喜欢或不喜欢其他商品的子集(消费者的类型基本上是被限制的)。由于这个原因,可以假设,估价矩阵具有(至少近似的)低阶,它可以被经验证明。因此,地阶矩阵还原方法,包括核范数最小化方法,可以运用于这种假设中。

虽然很感兴趣,但是我们并不准备在本书中对低阶还原进行延伸。然而,考虑到其与稀疏还原紧密联系,主要结果在练习中有所涉及,读者有兴趣可以自己解决这些问题。 压缩感知

本章介绍了标准压缩感知问题,给出了这本书内容的概括。由于实际问题很大程度上推动了数学理论,我们也简单的讨论了一些可能的应用。

什么是压缩感知?

Ax = y. (1.1)

在许多科学技术方面的实际问题中,一旦遇到任务要求对量测信息进行推断,例如,在信号图像处理中,可能要从实测数据中重建信号,当信息获取过程呈线

my?C性时,问题便简化为求解线性方程组了。用数学术语表达,观测数据通过

AX=Y(1.1)连接到目标信号X?C。

矩阵A?Cm?NN建立了线性测量进程的模型。然后通过求解上述线性方程组来

重建向量X?C。传统观点认为,测量次数m,即,测量数据量,至少和信号长

N

度N(X组分的数量)相等。

目前的技术中,大多数设备的使用都是以此原则作为基础,如模拟数字转换,医学影像,雷达,以及移动通信。事实上,如果m < N,经典的线性代数显示线性系统(1.1)是欠定的,且有无限多的解决方案(当然,存在至少一个)。

换句话说,没有额外信息的话,在m < N的情况下,是不可能从y中重新获得x的。

这个事实也涉及香农采样定理,即为了确保重建数据连续时间信号的采样率必须是最高频率的两倍。

图1.1安东,尼尔斯,和琳娜。

上图:原始图像。下图:使用1%的绝对值最大的小波系数重新构图,即,99%的系数被设置为零。

因此,它是一个令人惊讶的某些假设,它实际上是可能的重构信号时,可用的测量值的数目M小于信号长度,

更令人吃惊的是,高效的算法确实存在于重建中。稀疏性使所有这些深层次的假设成为可能。这一现象相关的研究领域被称为压缩感知,压缩感知,压缩采样,或稀疏恢复。这整本书是致力于这一领域的算法基础。


翻译实践译文 - 图文(3).doc 将本文的Word文档下载到电脑 下载失败或者文档不完整,请联系客服人员解决!

下一篇:CTAB法提取DNA原理及步骤、制胶、电泳

相关阅读
本类排行
× 注册会员免费下载(下载后可以自由复制和排版)

马上注册会员

注:下载文档有可能“只有目录或者内容不全”等情况,请下载之前注意辨别,如果您已付费且无法下载或内容有问题,请联系我们协助你处理。
微信: QQ: