您好,欢迎访问三七文档
11量子模式识别虚拟神经网络有无数的变种,大量旨在将量子行为引入到这些模型中的尝试并不让人感到意外。当在量子系统中找到类似神经元和神经元连接,我们可以构建仿经典神经网络模型,而不使用神经比喻。举例来说,一个简单的来实现Hopfield网络变种的方案就是用量子叠加来保存这些模式,这就是量子联合存储模型。为了匹配一个模式,我们使用Grover搜索的一个修改版本。存储容量是指数级大于传统Hopfield网络的存储容量(11.1节)。其他模型则包括了对经典神经网络的参考。然而,神经计算依赖于非线性分量,但是量子系统里的演化是线性的,测量,作为量子感知机,是引进非线性的关键成分(11.2节)。除了测量,相干脱散为非线模式铺平了道路,同样费曼的路径积分公式也能引入非线性。前馈网络包含的数个层和多个神经元可以混合量子和经典组件,来引入各种形式的非线性行为(11.3节)。多次的实验证实了量子神经网络的物理可行性。尽管只用了几个量子比特,但是核磁共振和量子点实验是有希望的,也有很多光学和绝热的实施意见(11.4节)。尽管我们离用量子部件实现网络的深度学习还很远,但是显而易见的是,计算复杂度比经典算法优越很多(11.5节)。11.1量子联合存储器量子联合存储类似于一个Hopfield网络(6.2节),但是量子公式不需要参考人工神经元。随机存取存储器通过地址来取回信息(10.1节),从而从量子联合存储器恢复需要一个输入模式而不是地址。这样一个模式可以完整匹配一个存储在联合存储器中模式,但它也可以是一个局部的模式。而剩下的任务就是重现最接近的匹配。如果一个数据实例的维数是d,并且我们要存储N个模式,一个经典的Hopfield网络则需要d个神经元并且模式的数量能够被线性存储d(6.2节)。量子联合存储器以叠加形式保存模式,提供O(2d)的存储容量,仅使用d个神经元(文图拉和马丁内斯,2000年),在这里,我们按照Trugenberger的论述(2001年),Trugenberger延伸和简化了文图拉和马丁内斯最原始的公式。因此,量子联合存储器是对所有纠缠量子比特的等概率叠加:11NiiMxN(11.1)其中每个ix态有d个量子比特,首先用辅助量子寄存器构建叠加态M。d个量子比特中第一个寄存的x将临时保存后续数据实例ix。第二个寄存器是一个双量子比特实用寄存器u。第三个寄存器是d量子比特的存储m。通过这些寄存器,量子初始态为:10111,...,;01;0,...,0dxx(11.2)01的上部索引表示正在处理当前数据实例,下部索引表示存储数据实例的当前步骤。一共有七个步骤。我们把这样一个量子态分成两个部分,一个对应已经存储于存储器中的模式,另一个部分处理一个新的模式,实用量子比特分为两个部分:0对应所存储的模式,1对应索要处理的部分。为了存储ix,我们将模式复制到存储寄存器中21012ijjdiixumjXOR(11.3)在这里,2XOR是一个Toffoli门(4.2节),并且下部索引表示在它上面运算的量子比特。如果模式的内容和存储寄存器相同,则翻转存储寄存器中所有量子比特至1,仅在处理过程中是正确的:211ijjdiimjxmjNOTXOR(11.4)第三个操作将第一个实用量子比特置为1:13...2diimmnXOR(11.5)第四步采用双量子比特们:(,)iiCSdiagIS(11.6)而是iS表示1111iiiiSiii(11.7)通过这个门,我们将新模式包括正确的归一化因子存储起来:12143iNiiuuCS。(11.8)我们进行方程11.4和11.5反向操作,先恢复工具量子比特1u,115...4diimmunXOR,(11.9)然后将存储器寄存器m恢复到其原始值,165ijjjiixmmjdXORNOT(11.10)经过这步之后,我们得到了如下的量子态:6;1100;;01;iiiiikkNixxppNN(11.11)在最后的步骤中,我们恢复等式11.11第二项第三寄存器至0:21762ijjiixumjdXOR(11.12)再看公式11.1中的叠加态M强调了一个重要的特性:存储的态在叠加时等权。Grover的算法适用于均匀等权叠加(公式4.25)。然而,如果我们希望取回一个输入的态,原Grover的算法如第公式4.5将不再有效:取回正确项目的概率将会很低。此外,Grover算法假定指定所有模式指定长度的量子比特是被存储的,在模式识别中很难实现。我们通过修改算法1来克服这个问题(文图拉和马丁内斯,2000年)。算法6中概述了这样一个修改的变体。周,丁(2008)提出了一个相似的改进。第二个状态的的旋转操作翻转了期待状态的相位,而且,它也同时翻转了所有存储模式的相位。与目标模式不匹配的状态被视为噪音,通过运用H门制造的叠加态的同时也引入了不良的状态。在修改的算法中额外的旋转强制这两种不同的不理想的状态经过同样的门,而不是在原来的算法中使用相对的相位。最终的状态作为输入Grover算法的正常循环。算法6为模式识别修改的Grover算法要求:在同等叠加初始状态11NiiMXN。输入状态通过相应的OracleO匹配。保证:取回最相似的元素。在存储状态中运用Grover算法操作MGM。在整个存储状态中运用Oracle操作MMOM。应用Grover算法的剩余部分:(200)nnMHIHM。运用Grover操作G的时间复杂度为()ON结束测量系统。类似的策略在量子强化学习中使用。与监督学习不同,输入输出对与奖励相关,并且最终的目标是采取最大限度的奖励措施。操作和状态存储在叠加态中,并且Grover搜索强调高奖励解决方案(董等人,2008)。为了在量子联合存储器中找到一个匹配的模式,我们需要执行一个存储状态M的概率克隆,否则在取回一个单个项目后我们将失去存储状态(段和郭,1998年)。存储元素的个数可以是指数级的,这使得Grover算法具有较高的时间复杂度。另一张方法将取回分成两步:识别和认可(Trugenberger,2001)。我们依然需要存储状态的概率克隆。我们在取回的过程中使用三个寄存器:第一个寄存器包含输入模式,第二个寄存器存储M,并且有一个控制寄存器c初始状态为(01)2。检索过程中初始状态为0111111,...,;,...,;0,...,;,...,;122NNnkiknnkiknkkiixxiixxNN(11.13)如果ji和kjx相同我们翻转存储寄存器至1:101kkdmkimkNOTXOR。(11.14)我们要计算输入模式和存储器中的Hamming距离(公式2.3)。为了实现这一点,我们使用下面的Hamiltonian:()mzHdc,112knzmkmd其中,z是第三泡利矩阵(公式4.3)。如果c是0,Hamiltonian测量在寄存器中0的数量并用加号表示,如果c是1则用减号表示。1中叠加态表示H的本征态。施加对应幺正演化(公式3.41),我们得到(2)(,)(2)(,)211111111,...,;,...,;0,...,;,...,;122kkNNiddixiddixdkkddkkdkkeiibbeiibbNN(11.15)其中当且仅当jkjix时1kjb。作为最后一步,进行方程11.14的逆操作:132kkkcimmkdHXORNOT,(11.16)这里,cH控制量子比特上的Hadamard门,我们测量系统控制比特,获得概率分布:211(0)cos((,))2NkkPcdixNd,(11.17)211(1)sin((,))2NkkPcdixNd。(11.18)因此,如果输入模式与每个存储的模式基本不相同,那么测量1c的概率会比较高。如输入的模式与所有存储的模式相似,则测量0c的概率将会高一些。重复这个算法来给出一个改善的估计值。一旦模式被识别,我们进行存储寄存器的测量来找出最接近的态,获得一个模式kx的概率为21()cos((,))(0)2kkPxdixNPcd(11.19)周围模式的概率峰与输入具有最小的Hamming距离。表11.1给Hopfield网络和量子联合存储提供了高层次比较。识别效率依赖于比较分布的相同距离的余弦和正弦,而识别效率依赖于不同分布的距离的余弦。当距离之一为0并且其他距离都很大时,时识别是最有效的,这使得峰值概率在一个单一模式上。在最佳识别效率相反的情形中,距离更倾向于均与分布。提高控制量子比特的数目从2到d能够提高识别的效率(Trugenberger,2002)。表11.1经典Hopfield网络与量子联合存储的比较(基于Ezhov与文图拉,2000年)经典Hopfield网络量子联合存储连接ijw纠缠态1kkdxx学习规则1Nkikjkxx叠加纠缠态11Nkkkdkaxx优胜者搜索argmax()iinf幺正变换输出结果n退相干1NkknkaXX11.2量子感知机在经典神经网络的情况下,感知模型是最简单的前馈模型。感知的量子变种依赖于单一密度矩阵的演变(Lewenstein,1994)。量子感知需要一个输入态(),并产生一个输出太()(见公式3.42)。输出的密度矩阵经过测量来引入非线性。考虑需要学习N个模式,我们准备一系列状态()与投影算子()。如果()是密度矩阵,该系统的制备第i个输入问题的描述—即测量和重新正规化。(10.20)输入状态的定义与相应的的投影算子()相似。这些测量保证系统的非线性行为。我们来对个人数据实例定义两个本地成本函数。让()作为我们没有发现在第i个状态的状态的条件概率,虽然它是第i个状态:(11.21)其中Q=1-P。类似的,()是在第i个态中找到系统的条件概率,而不是在第i个状态:(11.22)有了这两个错误的测量,我们定义了两个全局的成本函数:(11.23)而不是求在公式11.23中酉变换U最小化的成本函数,而这与第十三章中量子过程层析的任务相类似,我们对酉集的限制和找到一个错误的认可概率的概率感兴趣(加德纳1988)。假设输入与输出是独立的,并且()操作是一维的。另外,假设()操作是D维的。D/d的比值将决定量子感知的学习能力。当D/d的比值过大时,结合在()上的错误的约束是不能让人如意的,我们有一个简单的模型能够对任何输入给出肯定的答案,也就是说,感知并不执行任何运算。如果()和()由()与()连接,并且D/d的的值在()与()之间,对于U的任何选择我们将始终获得满意的答复。在这种情况下,一个误差项必须超过1/2;所以,几乎没有信息被春存在感知中。随着D/d的值越来越小,我们可以近似一个更标准形式的学习。误差不能任意小,因为它有如下的界()其中b=3(1-a)。寻找最佳U是可能的,但Lewenstein(1994)没有给出寻找最佳U的办法。由于我们不关心附加限制酉,理论上量子感知机的存储容量么有限制。11.3量子神经网络经典网络具有非线性不可逆转动态变化,而量子系统的发展是线性的,可逆的方式(扎克和威廉姆斯,1998年)。我们如何扩大规模从单一的感知到非线性的神经元网络?如果保持实施,量子点是神经网络的候选(11.4节)。这使得非线性通过费曼路径积分表示(贝尔曼等,1996)。在一个简单感知机的情况下(纳拉亚南和Menneer,2000;扎克和威廉姆斯,1998年),交替经典和量子原件的比较常见方法,在测量和量子坍塌引入非线性。事实上,数值模拟表明,完全量子神经网络可能比部分量子产生更坏的结果(纳拉亚南和Menneer,2000)。经过各测量时,量子器件复位从其本征态继续。为了克服测量的概率性质,一些量子器件测量同时复位(扎克和威廉姆斯,1998年)。该网络的总体架构类似于经典版本,混合经典和量子原件(纳拉亚南和Menneer,2000年)。输入可以被量子粒
本文标题:量子机器学习翻译
链接地址:https://www.777doc.com/doc-1966272 .html