基于数字水印的新闻照片防伪认证模型及其关键技术研究

发布时间:2019-06-23 09:18:30

万方数据——数字化期群期刊

CNKI中国期刊全文数据库网

2012 4

前沿动态

基于数字水印的新闻照片防伪认证模型及其关键技术研究 帆(1

开放式网络与应用服务模型(ONASM)及下一代网络体系结构(SUPA)研究 军(5

基于视频图像的人脸及其关键特征区域三维建模 勋(10

个性化虚拟人建模及文本控制其动作表情合成研究 进(14

认知异构无线网络自适应位置指纹定位技术研究 林(17

动态环境感知的移动对象不确定性轨迹预测关键技术研究 乔少杰(22

下一代Internet (NGI)网络流特性分析与性能评价研究 谭献海(27

LTE-Advanced中继网络关键技术研究 献(30

过渡金属的晶体结构与相变机理的理论研究 整(39

光纤参量放大的特性分析及其应用技术研究 朱宏娜(41

高功率微波脉冲与带EBG结构的计算机机箱的耦合及其并行计算研究 丹(43

囚禁离子和电子系统中的量子相干调控 淼(46


基于数字水印的新闻照片防伪认证模型及其关键技术研究

*(信息学院)

数字化技术在新闻摄影中的应用,极大提高了新闻照片的质量和新闻报道的时效性,然而也使新闻照片的造假越来越简单而造假照片识别越来越困难。从备受争议的华南虎事件,广场鸽藏羚羊等新闻摄影大赛中获奖的造假新闻照片,到西方一些别有用心的媒体对西藏地区3.14事件利用伪造的新闻照片恶意中伤散布谣言,新闻照片的真实性受到了前所未有的冲击和挑战。如图1所示,德国N24电视频道用一幅题为中国警察在北京监视喇嘛的照片污蔑中国,专家鉴定这幅照片是由几年前的多幅旧照片拼贴而成(警察的服装竟是10年前的式样)。伪造的新闻照片不仅会误导大众、违背社会公正与公平,甚至会影响国家的民族团结与社会稳定。如何维护新闻照片的真实性,成为新闻媒体急需解决的难题,受到全社会的关注和重视。新闻数字照片的防伪认证研究是一个需要深入研究和亟待解决的实践课题,也是国内外前沿性研究课题,不仅具有重要的学术价值,更具有重要的社会意义和广泛的应用前景。

新闻传播学理论指出,新闻信息(包括新闻照片)的生产、传播和接受是一个相互关联的完整系统链条,新闻=真实是新闻行业的共识。因此,具有记录和还原重要历史事件的新闻照片必须具备两个特性: 原始性——照片是事件发生现场的真实记录; 真实性——照片生成之后没有被改变。为此,研究者在90年代初提出了可信数码相机(Trustworthy Digital Camera)的概念,由此推动了安全数码相机(Secure Digital Camera)和数字水印技术的一个重要分支——认证(易损或脆弱)数字水印的研究与发展。然而,由于缺少结合新闻照片生产、传播和接受过程的应用体系研究,现有安全数码相机模型主要关注数字照片的真实性问题,缺少对数字照片的原始性研究且不能满足及时认证的需要,这些问题的存在阻碍了基于数字水印的数字照片防伪认证技术在新闻摄影领域的推广和应用。

1 德国N24电视台伪造的假新闻照片

作者拟从新闻照片的生产、传播和接受这一系统链条出发,以安全数码相机为工具,对基于数字水印的新闻照片防伪认证模型展开研究,为探索数字水印技术与特定应用结合的应用提供技术积累和实践经验。作者的研究拟从四个方面展开: 研究建立主要包括用户管理,图像数据(数字照片)管理,密钥分配与管理,新闻照片获取、传输、认证与发布等功能的新闻照片防伪认证模型; 设计一种与数码相机分离的可信可移水印芯片模型,包括可信数据(照片拍摄时的环境参数和相机参数)获取、含水印数字照片生成等功能; 以智能手机为平台,软件仿真可移可信水印芯片模型以验证其可行性和安全性; 结合数字照片和可移可信水印芯片的特性,深入开展适用于可移可信水印芯片的变容量认证水印算法研究。本项目研究不仅有助于提高新闻媒体的公信力和影响力,为确立数字世界的法律秩序和推动数字水印技术的应用提供技术积累,而且与数码相机分离的可移可信水印芯片模型能有效降低安全数码相机的成本,有利于安全数码相机的推广应用,具有广阔的应用前景和和潜在可观的经济效益。

1 国内外研究现状

新闻照片是对事件发生现场的真实记录,而数码相机是记录事件发生现场的主要工具之一。为保证新闻照片的真实性,在普通数码相机中增加水印芯片(如图2中的“Watermarking Chip”),使数码相机在获取数字照片的同时具有在照片中添加水印信息的能力——安全数码相机。相应地,水印芯片中采用的数字图像认证水印算法是保证数字照片真实性的关键技术。下面从安全数码相机模型和数字图像认证水印两方面给出国内外的研究现状与分析。

1.1 安全数码相机模型

为验证数字照片的真实性,Friedman利用数字签名技术首次提出可信数码相机的概念,利用数字签名技术得到的可信数字照片存在管理不便、不能定位篡改、不能区分篡改强度等缺点。为克服这些缺点,Kodak Epson等公司推出了基于数字水印技术实现数字照片防伪的安全数码相机。2005年,我国的华旗资讯也推出第一款具有数字水印功能的安全数码相机。这些安全数码相机的结构相似,图2BlytheFridrich提出的安全数码相机模型。含水印数字照片获取分以下三个步骤:

1)相机拍照:按下相机快门,获取现场照片(Scene Image),并利用外部设备获取拍照者的虹膜图像((拍照者的个人信息);

2)水印生成:利用场景图像摘要(Scene Hash)、拍照者的个人信息和相机信息(如时间戳)等,生成待嵌入的水印信息;

3)水印嵌入:水印芯片(Watermarking Chip)基于密钥(Secret ID key)将上步生成的水印信息嵌入现场照片,生成含水印场景图像(Watermarked Scene Image),或称含水印数字照片。

当含水印数字照片受到质疑时,由可信第三方或数码相机提供的密钥,提取嵌入在含水印数字照片中的水印信息,利用相应的认证系统判定含水印数字照片的完整性和真实性并提供篡改证据。同时,利用从含水印数字照片中提取的拍照者个人信息、相机信息等,还能解决数字照片的版权问题。

与密码算法一样,水印芯片中的数字图像认证水印算法是公开的,其安全性完全依赖于密钥。如果有人(包括数字照片提供者)获取或推测出含水印数字照片的密钥,就能利用公开的水印算法在计算机上执行数字照片的水印嵌入操作,从而生成能通过认证的含水印数字照片。由于取证机构无法确定该被测照片中的水印信息是拍摄时由数码相机中的水印芯片嵌入的,还是通过计算机伪造照片后重新嵌入的,就无法判定通过认证数字照片的原始性和真实性。为提高密钥的保密性,华旗资讯的田新等人提出采用封装技术将密钥内置于数码相机中,同时,华旗资讯的冯军和田新还提出利用外部设备收集数字照片拍摄时的环境信息(如时间、位置信息、海拔高度等)作为水印信息的安全数码相机模型。然而,我们的研究发现,密钥内置和以环境信息作为水印信息的安全数码相机模型存在以下问题: 数码相机必须直接参与数字照片的认证过程,这在一些实际应用中是不可行的。如,驻外记者发回的新闻照片通过认证后才能发布,当数码相机从国外取回参与数字照片认证后,新闻已变成了旧闻,难以满足新闻的实效性; 同一台数码相机得到的含水印照片的密钥都是相同的,不仅增加了密钥泄漏的风险,而且要求所采用的认证水印算法必须能有效抵抗Fridrich等人提出的拼贴攻击 最重要的是,这些安全数码相机模型不能有效避免含水印照片提供者利用数码相机通过翻拍照片(二次成像)伪造含水印照片(简称为拥有者伪造)的难题。针对上述问题,我们通过构建密钥与认证密钥一对多的映射关系,设计了一种无需相机参与认证的新型安全数码相机模型。该模型中,数字照片拍摄时的环境参数(时间、位置信息、温度等)和相机状态参数(焦距、曝光度、光圈等)是生成照片认证密钥的参数之一,不仅增加了含水印数字照片认证密钥的保密性,而且为验证数字照片的原始性提供了证据。目前,项目组正在开展对上述模型的安全性、避免拥有者伪造等方面的分析和研究。

2 Blythe-Fridrich提出的安全数码相机模型

1.2 数字图像认证水印

与数字签名相比,认证水印的突出优点在于:不仅能判定数字图像的真实性,还能定位被篡改的位置,甚至近似恢复被篡改图像的内容,从而为推断可能的攻击者和篡改方式提供有力的证据。为实现篡改定位,认证水印算法将数字图像分割为m×n的图像块(m≥1,n≥1),然后对每个图像块进行相似的处理。结合现有数字图像认证水印算法的研究成果,我们以图像块为单位描述了数字图像认证水印算法的三个共性问题:水印生成、水印嵌入和篡改检测。

水印生成包括特征提取秘密编码两个重要阶段,秘密编码一般采用密码学中的DESRSA等加密以提高水印信息的保密性。特征提取则根据允许的图像变形和水印容量提取图像块的特征信息,如块内容Hash、向量量化、像素均值、重要DCT系数、图像边缘和感兴趣区域等。由于水印容量的限制,图像特征对图像内容的表达往往是不充分的。如何兼顾恶意篡改的脆弱性和无害变形的鲁棒性是图像特征提取必须解决的关键技术问题,目前这个问题尚未得到有效的解决。此外,如何用尽可能少的容量保存尽可能多的图像特征,是提高算法安全性、含水印图像和恢复图像质量的关键因素之一,目前鲜有这方面的研究报道。

水印嵌入以不影响原始图像的使用(即不可见性)、不增加原图像的信息量和水印提取不需要原始图像为前提,以协调定位精度与安全性之间的矛盾为目标。兼顾水印容量和容忍变形程度,脆弱水印一般在空域的低比特位嵌入水印信息,半脆弱水印一般在DCTDWT域嵌入或通过量化像素值或频域系数实现水印嵌入。此外,还有一种可逆水印嵌入,根据含水印图像能完全重构原始图像。根据图像块水印信息在图像中的分布,现有认证水印嵌入方法可分为三类:图像块的水印信息嵌入图像块自身;图像块的水印信息伪随机分布在整个图像中;图像块水印信息嵌入在离该图像块较远的其它图像块中。图像块水印信息在图像中的不同分布决定相应的篡改检测策略。

篡改检测是通过比较图像块两个版本(内容生成和从水印信息中提取)水印信息的一致性,利用一定策略判定图像块的真实性。如果图像块的水印信息嵌入在图像块自身之中,通过比较由图像块计算和提取的水印信息的一致性,可方便地判定该图像块的真实性。不过算法的块独立特性使其易受拼贴攻击。如果图像块的水印信息被分散到整个图像中,无论图像块本身是否改变,从水印信息中提取的图像块水印信息都有可能发生改变,此时可借助统计检测(statistic detection)来判定图像块的真实性。作者的进一步研究发现,随着被测图像篡改比例的增加,基于统计的篡改检测性能急剧下降。当图像块水印信息嵌入在其它图像块时,设计一种自动、有效的篡改检测算法也是备受研究者关注的难题。Lin提出了一种双水印(认证水印和恢复水印)结构,该思想被众多认证水印算法采用。然而,相关研究表明双水印结构等同于嵌入图像块自身嵌入其它图像块两种嵌入方法的简单复合,不仅增加了水印嵌入容量,而且认证水印易受拼贴攻击。为此,项目组在基于混沌伪随机生成图像块嵌入位置研究的基础上,提出了一种基于块邻域的统计篡改检测算法,推导给出了该算法在区域篡改条件下四类图像块的篡改检测性能。通过研究认证水印算法在不同条件下的篡改检测性能,有助于认证水印算法安全性的定量评估与分析。

此外,安全性问题是数字图像认证水印走向实际应用必须解决的关键问题。与鲁棒水印算法不同,认证水印应能够检测对宿主图像的恶意改变。对攻击者而言,它们的目标是要利用各种方法使篡改图像或非法含水印图像通过认证。对防伪认证水印系统而言,除了传统密码学本身所存在的安全隐患之外,影响系统安全性的还有以下两个方面:篡改定位特性带来的安全漏洞;特征表达不充分引起的安全漏洞。攻击者可能利用这些漏洞修改或伪造图像以达到欺骗认证系统的目的。目前,针对认证水印算法的攻击方法主要包括以下几类:密码分析攻击,Holliman-Memon伪造攻击,拼贴(Collage)攻击,黑盒(Oracle)攻击和恒特征(Constant-feature)攻击等。随着对认证水印技术的深入研究,提出认证水印新算法的同时还将会出现新的攻击方法。

2 存在的问题和分析

目前,把数字水印技术与新闻照片的生产与传播相结合的防伪认证研究鲜有报道,同时现有安全数码相机模型和数字图像认证水印算法存在以下不足:

2.1 缺少数字图像防伪认证技术的应用模型。

近年来,国内外学者对数字图像认证水印算法及其相应理论作了大量的探索性研究,也推出几款基于数字水印的安全数码相机,但基于数字水印的数字图像防伪认证技术并未得到大范围推广与应用。一方面是由于现有安全数码相机模型存在一定的安全隐患与不足,另一方面也缺少与特定应用相结合的应用模型研究,致使安全数码相机中密钥的分配与管理、含水印数字图像的认证等问题尚未有合理完善的解决方案。

2.2 数码相机内置水印芯片增加了安全数码相机推广应用的难度。

众多数码相机厂家如何安全地、秘密地为内置于数码相机的水印芯片分配密钥,是安全数码相机推广应用尚未解决的技术难题。而且,数码相机更新换代快,水印芯片内置于数码相机中,增加了数码相机的生产成本,用户的经济负担也在一定程度上制约了安全数码相机的推广应用。

2.3 现有认证水印算法的水印容量都是固定的。

无论认证水印生成或是嵌入,现有认证水印算法的水印容量都是固定的,即图像中所有图像块生成和嵌入的认证水印信息的比特数都相同。事实上,图像中的不同图像块携带的信息量是有区别的,有时差别很大,如纹理图像块。因此,认证水印算法应能根据图像块的特性自适应地调整水印生成容量和水印嵌入方法,以兼顾认证水印算法的不可见性、安全性和篡改检测性能等。

开放式网络与应用服务模型(ONASM)下一代网络体系

结构(SUPA)研究

*(信息学院)

1 概述

Internet是在低速率、高误码率通信条件下,以文本文件传输与共享为应用背景发展起来的计算机网络技术。随着Internet的广泛应用,计算机网络已经成为人类社会政治、经济、军事、文化和生活各个方面不可替代的重要工具,并不断推动网络技术和网络应用的发展。

1、网络应用的服务种类、应用数据类型和服务模式都发生了巨大的变化,要求网络对网络应用的支撑平台的广泛性、通用性、适应性和可扩展性;

2、网络用户数量呈指数型增加,接入Internet的对象,也从计算机及其用户(人)发展到智能化的,从传统的计算机网络,逐渐向人、机、物全面互联的网络(The Internet of ThingsIoT);

3、服务获取的模式也从通过位置固定的计算机获取特定服务的方式向多种形式的终端(固定或移动、传统意义上的计算机或微小型化的智能处理装置)在任何时间(Anytime)和任何地点(Anyplace普适Pervasive/ Ubiquitous)访问模式方向发展。

4、光纤通信技术的高速化(单波长传输能力达到160Gbps)和低误码率(低至10-12)对骨干网交换结构与交换技术提出新的挑战;而无线通信技术一方面带来移动接入的方便性,另一方面也为服务质量保障带来新的挑战。

5、人类社会对网络的依赖使网络可靠性、可维护性和安全性、服务质量保障和网络应用和服务方式的普适性Ubiquitous/Pervasive)问题成为下一代网络面临的研究挑战和必须解决的关键问题。

面对现有网络,特别是Internet面临的各类挑战,上一世纪九十年代中期人们就提出下一代网络(NGN–Next Generation Networks)和下一代InternetNGI–Next Generation Internet)的概念。但在很长一段时间内,国际国内的学术界和工业界都把以解决地址空间不足为主要目的另一版本的网络协议(IPv6)视为解决NGI的根本出路,进而把IPv6网络等同为NGI。尽管在本世纪之初,国际国内已有研究单位反对这一观点,认为只有重新审视Internet的体系结构,研究新的体系结构才是解决NGI的根本出路,并先后提出了各自的网络模型和体系结构,但是这一观点并未成为学术界和工业界的主流观点。直到2005年美国的全球网络创新环境(GENI–Global Environment for Network Innovation)公开表示类似观点并指出:有30多年历史的Internet已经成为制约Internet发展的主要因素,必须研究“Clean Slate Architecture”CSA)之后,解决NGI问题的关键在于研究新的体系结构才逐渐成为学术界和工业界的共识。即使如此,在未来网络模型、何谓CSA以及下一代网络的研发策略等一系列重大问题上,至今尚未获得统一的认识,更无公认的NGI体系结构。上述挑战和技术发展背景,就是本项目提出必须研究新的网络模型和体系结构的背景。

2 国内外关于下一代网络模型与体系结构研究现状

2.1 国际国内典型研究项目概述

1ITUNGN体系结构

ITUNGN的体系结构框架被描述为两个宏层Stratum):底层称为传输宏层Transport Stratum, 代表未来基于分组的网络FPBN–Future Packet-based Network);上层为业务宏层Service stratum),为用户提供各类面向业务的服务。上述两个宏层组成的框架尚未细化,目前尚看不出内部细节,但对宏层内部的功能描述并未采用层次化结构的方式。

2、国外典型研究项目

1FIND

FINDNSF网络系统与技术(Networking Technology and SystemNeTS)计划的一个长期项目,拟从根本上重新设计新一代网络,其核心特征包括:安全性、健壮性、可管理性、新计算模式范例、集成新的网络技术、高水准的服务体系结构及新的网络架构理论,最终目标是设计一个适合未来15年需求的新一代互联网。FIND的研究项目尚处于对旧体系结构的反思和对新体系结构的探索阶段,没有一个项目得出一个较完整的未来网络体系结构框架。20094月,五位外部高级调查员对FIND计划进行了评估和调研,在他们写给NSF的调研报告中提到,后续的研究工作需要着重考虑安全性问题,身份识别问题,分层的规则问题,基于应用的网络,等等。可见FIND在体系结构上尚无真正标志性成果。

2)全球网络创新环境(GENI

GENI本身的重点不是研究NGI体系结构,而是构建的为下一代网络技术研究提供的的大规模试验环境,为试验者将将自己开发的软件植入该试验环境实验提供可编程换进;在资源管理与共享上采用虚拟化方式和分布式。

3 网络科学与工程(NetSE

为了通过跨学科、跨领域的联合研究,在未来互联网的构建上有所突破,20099月美国NSF将其支持的未来互联网设计FIND)、下一代互联网科学基础SING)和下一代网络信息NGNI3个项目合并为NetSENetwork Science and Engineering)。NetSE确定了以GENIOpenFlow为代表的两种试验验证手段。目前NetSE已经在NSF立项,正处于受理课题申请阶段。目前相关研究尚未在体系结构问题上有新的进展。

4Clean Slate Design for the Internet

2006年,斯坦福大学及其工业伙伴启动了“Clean Slate Design for the Internet”项目,以移动计算为重心,抛弃了传统互联网的中心TCP/IP协议、路由以及交换,将互联网业务计算以及存储确立为未来互联网的主体,在此基础上,该研究主要从网络理论认知与设计、网络框架构建、网络安全及物理传输技术融合、验证平台支撑4个方面入手,对互联网下一代进行研究。到目前为止,该研究进展主要集中在以OpenFlow为代表的可二次开发的网络接口的开发上。

5)动态多T比特核心光纤网络(CORONET

DARPA的研究项目CORONET的研究对象局限于核心光网,采用IP over WDW的体系结构,其目标是高动态、多T比特、高性能、高生存性和安全性。

6NewAch

NEWARCHDARPA20002003年)一个研究项目,其目标是为未来的1020年开发和评价一种加强的Internet体系结构。其中MIT等在NewArch项目提出的FARAForwarding Initiative, Association, Rendezvous Architecture)代表所谓无层结构模型(该模型实际上将通信子网中具有交换功能的Substrate排除在外,因而至少有两层结构)。有关FARA未见后续研究工作。

7)欧洲

2004年,ISTInformation Society and Technologies)研究计划的FETFuture and Emerging Technologies)在欧盟的资助下提出了SACSituated and Autonomic Communications),其主要目标是为基于位置识别的、自组织、自控制、技术独立、完全分布式、可伸缩的通信和网络系统探索新的模式。在该项目以及IST战略目标“Broadband for all”“Mobile and Wireless Systems and Platforms beyond 3G”的影响下,欧洲许多研究机构开始对未来Internet发展的关键问题进行探索。与此同时,在FP6Framework Program 6)战略目标“Research Networking Testbeds”以及FP7战略目标“New Paradigms and Experimental Facilities”的影响和推动下,欧洲出现了许多以实验平台为研究目标的项目,其中最具影响力的是2007年提出的FIREFuture Internet Research and Experimentation)项目中所包括的ONELABPANLAB两个测试项目。前者是PlanetLab项目在欧洲的延伸,后者是在大范围内将已有实验平台联合起来。

8)亚洲

日本NICT 2006年启动的新一代网络研究项目AKARI,其目标是在2015年前研究出一个全新的网络构架,通过Clean-Slate的研究方法设计出一种健壮的具有良好扩展性的网络,并完成基于此网络架构的新一代网络的设计。AKARI计划分3阶段(JGN2JGN2+JGN3)建设试验床,2015年后通过试验床开始进行试验。

韩国NGN发展计划——BcNBroadband Convergence Network)分三个阶段实现向下一代网络演进;新加坡南洋理工大学也开展了演进式的NGI研究;新西兰的NGI-NZ(新西兰下一代互联网)联盟,则奉行“IP everywhere, but Ethernet everywhere”的设计原则,最初的试验网络分布在全国6各节点。

2.2 国内NGI体系结构研究现状

国内对NGI体系结构的研究不多,在很长一段时间内大量的经费投入到建立了大型的IPv6试验网的工程性项目。但也先后开展了与体系结构的研究:

1973项目——新一代网络体系结构研究

由清华大学等5个单位共同承担的国家“973”计划项目新一代互联网体系结构研究在多项理论性研究的基础上,设计了面向新一代互联网络的、多维可扩展的、可管理的、安全的网络体系结构和服务总体框架,设计其中主要的协议机制、关键算法并实现可运行验证的原型系统。

2)西南交通大学四川省网络通信技术实验室的研究

西南交通大学的四川省网络通信技术重点实验室从2001年成立之日起,一直把下一代网络体系结构作为实验室的重点研究方向,2003年在国际上发表了单层用户数据交换平台的“3D-EMAN”体系结构,是国际上率先开展相关研究并持续进行了10年的单位之一。2003年以后先后在3项国家自然科学基金项目的支持下,分别提出了开放式网络及应用服务模型ONASM)、骨干通信子网优先外延次之BSF-OES)的研发策略和单层用户数据交换平台体系结构(SUPA)并对关键技术进行了研究。20099月曾华燊教授在西班牙马德里成功主持了首届未来网络体系结构与研发战略国际专题研讨会(1st International Workshop on Future network Architecture and Development Strategy, FADS’09)。

3)电子科技大学

2003年,电子科大曾家智教授提出了服务元体系及结构,用面向对象的思想在通信子网底层之上永不分层的思想描述了网络上层结构。2008年在军队装备部预研经费的支持下构建了3节点的该体系结构试验系统。

3 国际上NGI模型和体系结构研发思路的分析

尽管从2005年以后,解决下一代网络问题必须研究新的网络体系结构逐渐成为学界和工业界的共识,但是,有关CSA的实质与内涵,以及如何来构建NGI体系结构至今尚无定论。我们在中国工程科技中长期发展战略研究联合基金项目——《未来网络体系结构与网络技术发展策略研究(项目编号:U0970122)报告》中把目前的争论归纳为:

1Clean Slate Architecture CSA)研发思路——“革命Revolution)与改进/演进Evolution

一种观点认为CSA就是从零开始从草图开始,也被部分人称为革命的研究路线,目前学术界的研究采取这一路线的较多。另一种观点则认为不应当摒弃Internet存在而可用,但面临严峻的挑战这一现实,而应当以NGI需求为背景,在全面分析现有Internet面临的挑战和Internet的不足的基础上,提出能够克服现有缺点,满足可以预见的NGI需求的新体系结构,并充分考虑如何从现有InternetNGI体系结构过渡的问题,这一观点被部分人视为“Dirty Architecture”。申请人所在实验室近十年来一直采用演进策略,在思想上未沿袭传统结构,不受制于现有的体系结构,始终从需求出发探索新结构,在探索中不断改进和修正已有的工作。

2、无层结构(Layerless Structure)与分层结构(Layerred Structure)

在采用用什么形式来描述下一代网络体系结构的问题上也存在两种思路,即采用分层结构还是无层结构MIT提出的FARA模型和国内电子科大的服务元体系机构宣称采用无层结构的网络模型和体系结构。FARA前向指示、联系和汇聚点三要素来描述未来的网络功能。该模型将通信交换子网(Substrate)排除在模型之外,作为通信子网的重要组成部分,Substrate本至少应视为一。从这种意义上讲,FARA只描述了网络的部分功能,整个网络结构中实际上至少有两层(FARA描述部分+Substrate),并非无层。服务元体系结构隐式地以Internet功能为背景,用面向对象的思想重描述网络结构,它与FARA类似,未涉及通信子网的底层功能。从这种意义上讲,分层结构的思想显式或隐式地体现在多数在研的体系结构之中,仍然自觉或不自觉地在描述未来体系结构中采用的主流思路。

3、带外信令(Out-of-band Signaling)与带内信令(In-band Signaling

采用分层结构时,应当采用带内信令还是带外信令思想来描述NGI的体系结构也是值得探讨的问题。迄今为止,ITU的多数标准都采用带外信令技术,尽管ITU的两层结构的NGN模型内部是否采用带外信令技术尚不明朗; IETF及其他标准化机构多采用带内信令技术,MPLS是一个例外。OSI/RMInternet对通信子网层次结构的描述,隐式地采用了带内信令概念,因而把OSI中继系统和路由器描述为三层或三层以下结构,因此,只好把路由器中的传送层(TCPUTP)协议以及其上的RIPBGPSNMP等与控制管理相关的应用层协议都解释为网络层的增强子层协议。实际上,用带外信令的观点来描述OSI中继系统和Internet路由器很容易解释上述现实。事实上,MPLS公开申明采用带外信令,因而更合理地解释了Internet通信子网的运作过程。目前,很多未显式地用带外信令描述的系统,都面临类似的难以自圆其说的情况。现有各类协议表明:宏观上采用带外信令描述,有利于有针对性地简化与增强不同的性质的平台(协议层次结构);在微观上借用带外信令的思想描述系统运作,有利于适应特殊需要(例如:用户数据的流量控制、接收确认等)。从这种意义上讲,带外、带内信令思路可以有机地结合起来应用于网络运作机制的描述。

4、做加法还是做减法的问题

采用演进型路线研究NGI体系结构,以现有网络为参照,国际标准化机构(ITUIETF等)在向未来网络过渡的工作中,主要采取做加法的策略,即打补丁或用增强Enhancement)的方式来解决问题(ITU的两宏层NGN结构例外);其他NGI研究则采用加减相结合的方式探讨新的体系结构;推翻重来从零开始CSA不以现有结构为参照,很难用做加法/减法来描述。我们在骨干通信子网结构上,对用户数据交换平台做减法(简化为单层);在信控管理平台,在层次结构上做减法(减少层次),而在服务质量保障和路径选择上做加法。

4 小结

综上所述,从整体上讲,国内、外有关Clean Slate ArchitectureNGI研究,目前仍处于初期阶段。

1、从整体上看,学术界探索所谓革命性从零开始的工作较多;标准化机构的特殊性(保持网络的延续性和将来的平湖过渡)则采用渐进改革方式的较多。

2NGI研发是一个长期的过程,有人估计需要1015年的时间;尽管各国研究项目从不同角度提出不同的体系结构或模型,相关研究各具特色,但离在NGI体系结构上达成国际共识尚有很长的距离。从这种意义上讲,各国的研究大体上处于近似水平上。

3、制订OSI/RM的背景正是在上一世纪七十年代多种网络并存难以实现互联的背景下进行的;多种革命性CSA”必须最终走向标准化,因而需要建立第二次开放式参考模型。革命性的CSA越多,标准化的难度越大。

4、现有CSA从某种意义上讲,有从过去的“IPv6就是NGI”的一个极端,走向全盘否定现有的体系结构的另一个极端之嫌。

5“IPv6NGI”的观点在较长时间内在我国学术界占据主导地位,只是过去IPv6试验工程网络上投入较大,而在下一代网络模型和体系结构的研究上投入强度较低。今后宜增加学术民主,加大科研力量和研发资金的投入强度,使我国在下一代网络的研发与建设上有更多的发言权。

基于视频图像的人脸及其关键特征区域三维建模

*(信息学院)

1 概述

对人脸的描述和刻画长期以来一直得到了人们的广泛关注,至今留存了数量不菲的历史人物肖像及雕刻,其中不乏高品质的文化瑰宝:如三星堆出土的古蜀国金面罩铜质人头像,达芬奇画笔下神秘的蒙娜丽莎,唐宋时期古典雅韵的仕女图以及一系列直逼人灵魂深处的梵高自画像等。当今信息技术日新月异,建立新的计算模型和方法,根据图像、视频实现三维人脸自动建模是相关领域研究人员孜孜以求的目标。

另一方面,近年人脸机器识别技术取得了巨大的进展,涌现了若干人脸识别商业系统。美国国防部组织了针对人脸识别商业系统的评测,迄今为止的三次评测结果表明,目前的最先进的人脸识别商业系统的性能仍然对于室内外光照变化、姿态、时间跨度等变化条件非常敏感,大规模人脸库上的有效识别问题也很严重。加之视频图像普遍存在分辨率低、尺度变化范围大、对象不配合(Noncooperative)等问题,这些都造成了自动识别对象身份困难重重。由于人脸是一个三维形体,学者们逐渐认识到人脸的三维信息是解决姿态、光照变化等问题最本质、最有效的方法,结合人脸三维信息的人脸识别研究逐渐增多。因此,借助计算机系统强大的计算能力并结合在认知科学、计算机视觉(Computer Vision)等领域取得的研究成果,根据人脸图像进行三维重建成为了近年来的研究热点问题。

众所周知,人类视觉系统(Human Visual SystemHVS)具备分辨人脸复杂模式的能力,仅仅通过少量照片,也能够准确、快速地在大脑中塑造其三维形状,进而实现身份辨别。要实现计算机的自动三维人脸建模,现有技术往往需要大量的手动操作且效果远达不到应用要求。如果能够借鉴人类的认知机理和相关数学理论的最新研究成果,建立新的计算模型和方法,实现从视频中准确、高效地重建出人脸对象的三维人脸模型是当前计算机视觉、人工智能等领域一个关键问题,该问题的妥善解决不仅对于打破当前人脸识别技术瓶颈、提升视频监控设备的实用价值具有重要的意义,也可为其它复杂对象的建模提供借鉴,对于类似的科学问题的解决具有重要的促进意义。

由于人脸不规则的表面,非刚性的变形,导致人脸总体具有复杂、多样的模式结构。众所周知,即使是面容极其相似的双胞胎,其面孔上也存在细微差异,这个世界不存在两张完全相同的人脸。那么,区分如此众多不同人脸的个性特征到底是什么?机器如何有效地利用这些特征?生物通常利用双目进行空间物体的重构,而计算机能否真正摆脱这种束缚,仅仅利用单个摄像头捕获的图像来准确地实现三维几何重构?如何从技术上克服面部姿态及光照的影响?对这些问题的分析和解答无疑具有重要的理论及社会经济价值,也给研究人员提出了新的课题。

2 国内外研究现状及分析

从上世纪70年代至今,众多研究者先后提出了不同的人脸建模方法,大量的创造性工作促使真实感人脸合成技术得到了长足发展。

2.1 三维人脸建模算法综述

根据数据的来源不同,现有的人脸建模方法大致分为两类:其一是利用三维硬件设备直接获取人脸三维几何及纹理信息;其二是根据图像或者视频中的信息进行个性建模。利用硬件设备(如三维扫描仪、结构光等)构建的三维模型通常具有较高的精度和逼真度,能清晰地描述个性特征,但是设备造价高、不灵活,且当仅有图像输入的情况下无法建模;另一方面,近年来基于图像的三维建模技术已经取得了突飞猛进的发展,在计算机视觉领域国际顶级会议ICCV 2006发表的一份关于多幅立体图像重建三维模型技术的评测报告表明,在一定条件下基于图像的三维重建结果,在准确度与完整性上已经接近激光三维成像仪。因其灵活性、数据获取便利性,基于图像及视频的人脸建模方法得到了快速的发展,大致可以进一步细分为三类:基于立体视觉的人脸形状重建方法;基于一般(中性)人脸模型的变形调整方法;基于统计模型的形变算法。

1、基于立体视觉的直接人脸重建

基于立体视觉的方法通常将机器视觉中用于简单几何物体的三维重建方法应用于人脸三维建模,不需要借助一般人脸模型,可以直接根据二维立体图像(或视频)上的像素点恢复人脸三维形状。王琨等人提出了利用Structure from MotionSFM)根据两幅人脸图像重建人脸三维结构的方法,将反映人脸共性特征的几何对称性和规律性运用到匹配点的寻找中,能够快速准确的找出SFM算法需要的匹配点;Sengupta 等人根据机器视觉的仿射变换、样条拟合等技术实现了基于单视频序列的三维人脸建模;Lin等人搭建了一个包含5个相机的人脸成像环境;明暗恢复形状(Shape from ShadingSFS)方法是一类从单张图片中恢复物体的三维形状的典型方法,但经典的SFS算法受环境影响很大,目前研究人员一般不直接使用该方法进行三维人脸重建,而是加入一些约束,如光照约束、几何对称约束以及人脸统计知识。

由于没有人脸结构的先验知识(如一般人脸模型)作为约束,这类方法的人脸重建结果容易受到噪音数据及顶点匹配准确度的影响。

2、基于一般人脸模型的形变算法

这类方法以一般人脸模型为变形基础,根据多张人脸图像用机器视觉算法(或者直接用正交照片)计算人脸上特征点的三维坐标,然后用形变算法对一般人脸模型进行变形,生成特定三维人脸。Pighin等人提出了空间散乱数据插值方法,根据多张照片建立人脸三维模型的纹理映射,并采用Morphing技术生成不同脸部表情间的过渡,能够生成真实感较好的人脸;Liu等人通过角点匹配和Structure from MotionSFM)算法实现了基于单个摄像头的人脸重建;Fua等人提出用光束法平差(Bundle AdjustmentBA)与人脸库相结合的方法,可以自动地从视频流中恢复出人脸形状,相机参数无需提前标定,能够处理光照条件较差的视频数据,精度较好。但是,预处理复杂、计算量大是该方法的主要不足,不适合于实时的三维人脸重建。彭翔等人提出了基于控制网格和网格细分相结合的方法,简化了特征点的标定过程,采用两张正交照片进行三维人脸建模并实现了不同模型间的三维变形,并将网格简化、自由曲面变形和细分结合起来,得到多个层次细节下的人脸几何模型后再经过纹理融合和映射,完成个性化的三维人脸建模。该方法简单、易于实现,但是生成的人脸个性特征不明显。基于Lambert成像模型,在给定人脸图像及参考模型之间的特征匹配的条件下,Kemelmacher等人近期提出利用单个参考人脸模型根据一张人脸照片进行三维人脸塑造,该方法利用图像上人脸的灰度信息对参考人脸模型进行变形,可以同时实现光照及反射率的拟合。

总体而言,这类算法的建模结果依赖于特征点定位和匹配算法的准确性,其鲁棒性还有待进一步提高。

3、基于统计模型的形变算法

尽管个体千差万别,但人脸也有一定的共同点。按器官的组织,人脸由口、鼻、眼、眉、耳五个器官,以及脸颊、额头、下巴、两鬓角等部分组合而成;从结构上看,人脸分布也满足三庭五等等面貌测量学规则,只有合理、充分地利用人脸结构知识对建模过程进行约束才能设计出鲁棒的人脸重建算法。而统计学是一个有效的使用人脸先验知识的数学工具,可以根据大量的人脸数据获到人脸结构形状分布信息,基于统计学的方法中比较著名的是三维形变模型(3D Morphable Model3DMM)。

一般而言,在没有约束的情况下,基于单张图像的三维重建是一个病态问题。以统计学为工具,把人脸看成线性对象类(Linear Object ClassesLOC),BlanzVetter等人[20]提出了三维形变模型(3DMM——以人脸形状和纹理统计信息为约束,成功地实现了基于单张图像的人脸自动建模。由于该模型是建立在像素级对应的三维原型人脸数据库上,且在模型中考虑了人脸姿态、光照等因素,因此该模型可以生成高度真实感的三维人脸,并可以应用到解决人脸识别问题。由于实现3DMM模型的算法十分复杂,近期Vetter等人公开了一个名为Basel Face ModelBFM)的3DMM实现模型,以进一步向其它非盈利机构的研究人员推广他们的方法。但是,3DMM还存在一些亟待改进的地方。首先,建立形变模型的基础是三维人脸数据基于特征的稠密对应,该模型通过人脸柱面展开图像的光流计算来建立这种对应,但光流算法对于差异较大的人脸图像计算效果并不理想;其次,模型匹配的计算过于复杂,计算量大,这也是该模型不能实际应用的主要原因;此外,模型匹配结果对初值的设置有一定依赖,往往会因为局部最优解而导致建模失败。北京工业大学的尹宝才等人从多光源、多分辨率、目标函数优化等方面对3DMM进行了扩展。但是,由于需要优化求解大规模非线性方程组,3DMM效率低的问题还有待进一步解决。 Patel等人对3DMM进行了改进并添加了约束条件,增强了统计模型对形状的表示能力,可以在10秒左右重建出5万个点的稠密三维人脸模型。不同于3DMMCastelan等人参考AAM算法的思路,把纹理参数与形状参数进行融合构造了一个耦合统计模型,但局限于正面人脸图像的三维重建。

随着技术的进步,三维人脸建模也朝着多种方法融合的趋势发展。Amberg等人将机器视觉算法应用于3DMM,使用多帧图像增强了模型对姿态和光照变化的鲁棒性;另外,研究者也提出了基于局部特征点的形变模型,可以实现快速的建模:柴秀娟、姜大龙等人提出了一种稀疏的形变模型,能够在1秒内(P4 3.2G CPU的机器上)完成形状参数估计;Vetter等人也提出了类似的基于少量特征点的形状重建算法;我们研究团队前期结合脸部结构知识,提出了基于单张照片的三维人脸自动建模方法。

2.2 基于视频的三维人脸建模研究进展

在基于视频的三维信息获取问题中,按摄像机的数目,可分为多个摄像机和基于单个摄像机系统。前者需要明确摄像机参数,精确的匹配多个视角的视频序列,并且使多个摄像机在时间上严格同步;而从单个摄像机的单目视频中获取三维运动信息非常困难,需要借助其他知识近似估算深度信息。

Fua等人较早地提出了一种模型优化的思想实现了从视频序列中恢复人脸,使用优化技术并利用了人脸形状的先验信息,采用最小平方框架融合多种信息,保证了算法的收敛性。之后,Fua又引入光束法平差,使得在不进行摄像机标定的情况下,也可以恢复出人脸的运动和形状。Liu等人将人脸表示为中性人脸与若干形变成分的组合,在这些形变成分的控制下(通过其线性组合),他们的模型可以从中性人脸变形到特定人脸。与3DMM不同的是他们的中性人脸比较简单,且计算模型不包含纹理模型和光照、反射率等参数,重建的人脸效果真实感不足。

传统的SFM方法在获取图像上的特征点(匹配点)时,一般只利用了该帧的信息,Kang等人提出了基于外观约束的从运动恢复形状算法,该算法包括图像配准,从运动恢复形状,以及外观预测三个主要部分,利用估计的外观图像与当前帧的实际图像进行匹配,进一步修正匹配点信息。在《Appearance-Based Structure from Motion Using Linear Classes of 3-D Models》(Kang S B, Michael J)中,Kang等人进一步将这种算法与线性形状模型相结合,以提高优化的速度和稳定性。

一些学者提出基于模型的光束法平差算法(Model-based bundle adjustmentMBA)用以从视频重建三维人脸,与传统的基于点的光束法平差的区别在于MBA将三维模型参数化,使得某个特定的形状表面,可以以若干个参数来描述,而不需要以形状中点的三维坐标来描述。这就大大降低了光束法平差的解空间,同时也有利于引入约束控制解的范围。Dimitrijevic等人沿用了这种MBA的思想,所不同的是,他们使用的人脸模型更为稠密,类似于3DMM的稠密形状模型,对视频图像中可能出现的光照变化的问题进行了研究,提出了适用于不良光照条件下的基于视频的三维人脸建模方法,但Dimitrijevic等人的方法其计算复杂度随着帧数的增加呈立方增长,并且基于归一化互相关(Normalized Cross CorrelationNCC)的匹配算法当输入视频的质量较低(如为低成本的摄像头所采集)时很可能失效。

总体而言,基于模型优化的方法广泛地使用了冗余的图像信息,且对人脸特征点定位的要求较低,具有较大的发展潜力。

4 总结

30年,基于图像及视频的三维人脸建模技术取得了较大的进展,同时我们也看到,我国在这一领域研究水平仍亟待提高。根据视频图像进行三维人脸重建的技术目前还存在精度、实时性、鲁棒性等挑战,面临如下几方面的困难:

1、合理的三维人脸数据表示及参数化。数学曲面几何模型的表现能力有限,不足以反映多变的人脸形状;而点云数据数据量大,存在平滑性不足、难以控制等问题。兼顾细节表达能力并降低数据量,是三维人脸数据表示面临的挑战;

2、光照及姿态变化影响。光照条件的变化会使得一般的成像模型不再适用,而且不良的光照条件也会极大地影响特征定位精度,进而影响人脸重建精度;

3、特征点及面部轮廓精确定位及匹配。人脸图像是一个低纹理区域,即是图像亮度变化比较平滑,梯度信息比较少,很难从中提取有用的特征(如角点、线),固而难以生成可靠的三维点云数据;

4、图像的分辨率问题。现有研究结果表明,当人脸图像中两个外眼角的距离大于100像素时才能保证有效的建模,而视频中的人脸图像质量通常无法保证。

5、复杂背景的干扰。投入实际应用的系统通常会置身于复杂的外部环境,这对人脸检测及分割、特征点定位等建模基础工作的精确性带来极大的挑战,进而影响建模效果。

个性化虚拟人建模及文本控制其动作表情合成研究

*(信息学院)

1 概述

心理学家的研究结果表明,在人类交流中,语言仅仅能够传达说话者的态度和感情信息的7%,另外有38%由韵律、音质等辅助语言信息来决定,而其余55%则是由肢体语言、面部表情等非语言信息来传递。作为在虚拟空间中用户的代表,虚拟人(avatarvirtual human)是非语言信息唯一的传递者。然而,不同社会背景的用户,具有不同的形象、动作习惯和特定的表情。如何从用户输入的文本信息中分析并获取用户的个性化特征,从而设计出与用户外形和文化背景都一致的个性化虚拟人,尚缺乏系统的理论研究基础。另一方面,近年来的研究成果证明,利用视觉/语音技术,或是借助触感装置容易实现对虚拟人动作和表情的控制,但是如何利用输入文本直接、自然地控制虚拟人,目前尚无较好的方法,其研究难点在于如何提取语言信息中的非语言信息,以及如何解决语言信息和非语言信息的实时同步问题。

以上问题涉及到计算机科学、计算语言学、心理学和认知学等众多学科的交叉知识,对其展开研究不仅具有重要的理论研究价值,还在工业、教育和数字娱乐等领域有广泛的应用前景。比如,在工业控制领域,作者提出可以使用虚拟人帮助用户理解文字命令,避免引起误操作,使人-机交互更加人性、友好、有效;在异文化交流中,虚拟人的肢体动作可以帮助解释像汉语里的太极拳和日语里的正座等光凭文字输入很难让对方理解的信息;虚拟人的外形特征、社会行为极大地影响着用户体验,在一定程度上决定了用户在3D 空间中的社会交往范围,虚拟人外形和动作、表情个性化的设计方法可以应用于虚拟社区、动漫影视、网络游戏等领域。

2 国内外研究现状及分析

虚拟人是我们人类自身在计算机生成的虚拟空间的图形化代表,它可以反映用户的行为和表情特征,从而辅助文字增强交流的效果和用户的沉浸感。针对本文的具体研究内容,我们从虚拟人个性化和虚拟人的运动控制方式两方面来分析国内外研究现状。

虽然已经有很多对3D虚拟人建模方法的研究,但在虚拟人的个性化建模方面的研究还很少。MITCassell是最早尝试个性化虚拟人研究的学者之一,她的研究小组研制了深具影响的BEATBehavior Expression Animation Toolkit),该系统让用户输入希望虚拟人说出的文字,然后从输入文本中自动提取出所需信息来控制虚拟人的手臂动作、表情和虚拟人说话的语调,并且它允许用户在最后的动画制作阶段插入用户喜欢的个性化特征。中科院的毛天露和王兆其通过输入21个人体测量学参数对标准人体模型进行编辑,实时获得了体型个性化的3D人体模型。最近,出现了一些面向应用的个性化虚拟人设计,比如Piotr Bozena为在线游戏设计了个性化的虚拟人动画,Sucontphunt等人根据已知的人脸库,建立了一种利用3D画像编辑来刻画个性化虚拟人脸的方法,申请人的实验室为不同民族或职业的虚拟人设计了服装等等。目前的虚拟人个性化建模研究大都集中在虚拟人外形的个性化定制上,而本文则提出应该考察文化背景、职业、年龄等社会因素对虚拟人行为方式和表情特征产生的深层影响,在人脸、体型、服装、动作习惯和表情等方面进行相应的个性化设计。

虚拟人的动作和表情控制方式,大致可以分成三类:视觉/语音技术控制虚拟人、触感装置控制虚拟人和文本输入控制虚拟人。其中,前两种的研究比较成熟,后一种的研究相对较少。但这种分类不是绝对的,因为有的研究融合了这几种方法。

现在包括很多商业产品在内的虚拟人动画系统采用视觉、语音或视觉语音合成技术控制虚拟人动作或表情。一方面,从视频中容易获得人物的动作、表情、手势等信息;另一方面,人的声音不仅仅包含了说话人信息和语言内容信息,也包含了丰富的感情或情绪特征,因此可以利用语音识别技术提取语音中的情感特征。University of IllinoisT.S. Huang研究团队长期从事这方面的研究,他们开发的多模系统RTM-HAIReal-Time Multimodal Human–Avatar Interaction)从视频输入中实时采集到头部姿势参数,从语音输入中预测出虚拟人的嘴唇运动趋势,同时利用TTSText-to-Speech)技术将语音和文本输入合成并转换为虚拟人语音输出,最后利用视觉语音合成技术实现了桌面和手机的虚拟人实时动画控制。另一个比较有代表性的工作是德国的Schreer等人提出的一种通过分析视频和语音信息来驱动虚拟人模仿用户的方法。他们将摄像头获得的用户视频信息进行分析,对手、头的位置进行跟踪,并对脸部进行特征点提取,然后再经过手势识别、2D/3D特征转换等处理得到合成虚拟人动画的参数;同时,把语音输入转换为虚拟人的嘴唇运动;最后,通过互联网接口把视频和语音信息的处理结果发送给接收方的虚拟人,实现虚拟人动作、表情和声音的实时合成。Mower等人对视频和语音的相互作用以及它们对虚拟人的驱动效果进行了详细的分析实验。Talafova等人将语音合成技术和人脸动画技术运用到手机产品中,手机接收到短信后,将自动生成语音,并使语音与3D虚拟人脸动画同步合成,这样就实现了虚拟人短信。另外,Park等人利用语音识别技术,对语音和虚拟人唇部的实时同步进行了重点研究。

近年,因为触感装置(haptic device)或标记(marker)的使用可以帮助用户在线交流时有更强的情感体验,使用户在虚拟空间有很强的沉浸感,或更方便控制虚拟人,因此吸引了很多研究者从事这方面研究。比如,日本豊橋技术大学的Tsetserukou和东京大学的Neviarouskaya最近在IEEE Computer Graphics and Applications上发表了他们的研究成果iFeel_IM!Intelligent System for Feeling Enhancement Powered by Affect-Sensitive Instant Messenger)。他们设计了六个触感装置让用户佩戴,该系统不仅能够控制虚拟人实现拥抱、喜悦、悲伤、愤怒、恐惧等动作和表情,还同时让用户真实地感觉到拥抱、心跳、体温等,在增强用户自身的情感体验的同时,也刺激了对方情感的交流。Basori等人实现了通过调节触感频率使虚拟人具有喜悦、悲伤、惊奇、愤怒、恐惧和厌恶等表情,以增强虚拟人的逼真感。Evrard等人着重对用户跟虚拟人、虚拟环境之间的触觉交互作用进行了研究,特别是触摸(touch)、拖拉(drag)虚拟人或物体,利用触觉反馈完成协同操作任务。比如,虚拟人坐在一张放有物体的桌边,当用户用触觉探针触摸虚拟人的手时,虚拟人的视线立即移向被触摸的手,当用户再把探针移向桌上的物体时,虚拟人会转向这个物体并把它抓起。Kotranza等人进一步把用户对虚拟人的单向触摸扩展到用户和虚拟人之间的双向触摸,比如当医生(用户)打开病人(虚拟人)上衣的时候,病人不仅可以通过触感接口摸(pseudo-haptic touch)医生的手,甚至还可以通过联动的机械手摸(active-haptic touch)医生的手,以表示他害怕手术。这种双向的肢体交流有助于消除语言交流的歧义并且非常类似人与人之间的交流。另外,日本筑波大学的Matsumoto等还将视频虚拟人和触感设备结合起来开发了一个动作训练系统, 该方法可以从视觉上向受训者展示训练员的动作,但此方法要求虚拟人的行为必须很缓慢。

前两种方法虽然能够较好地实现用户对虚拟人动作或表情的控制,但是需要接入视频或语音输入设备,或是需要用户操纵触感装置,特别是佩戴型触感装置会使用户感觉臃肿和不方便,而且设备本身的高成本也不容忽视。因此,利用输入文本直接控制虚拟人的方法因其自然、简洁、不给用户带来任何负担而逐渐被研究者所重视。在这方面有一个很重要的开拓性的工作是来自T.S. Huang研究团队的Tang等人。他们对用文本控制虚拟人声音、面部表情以及口型和面部表情的同步的方法进行了研究。一方面,他们把输入文本(英语)通过情感语音合成(emotive speech synthesis)技术转换为带有抑扬顿挫并蕴含感情色彩的语音,同时把音素(phoneme)按时间顺序排列,然后把音素按时间顺序映射成相应的口型(viseme);另一方面,他们从输入文本中提取出情感标志的词(如happy, sad, and angry等)来决定虚拟人情感状态(emotional state),再用这些情感状态去描述虚拟人的面部表情,然后将面部表情与口型同步合成;最后,他们把上述得到的语音和表情、口型合成输出,期望得到一个表情真实、说话自然的情感虚拟人(emotive audio-visual avatar)。不过目前他们只得到一些比较粗浅的结果,仍在继续研究。

综上所述,我们用图1来表述最近十年来虚拟人建模及其控制方式的发展由来。虚拟人的建模经历了一个从标准3D建模到用人体参数去修正标准模型建立个性化外形的过程。作者在此基础上,进一步提出使虚拟人的动作习惯和表情特征符合用户的社会背景,即不仅实现虚拟人的外形个性化,而且实现虚拟人动作、表情的个性化。对虚拟人的控制方式的研究也一直在发展,在20002007年期间出现了很多基于视觉/语音技术控制虚拟人的研究,目前该方法已趋成熟,从2007年左右开始触感装置因其良好的人机交互性吸引了很多研究者。目前,通过输入的自然语言文本给虚拟人实时地发布指令这一领域,特别是通过输入文本让虚拟人获得恰当、同步、自然的动作和表情这方面,尚有很多困难,需要进一步开展深入的研究。

1 虚拟人建模及控制最近十年发展历史

国内关于个性化虚拟人建模的研究工作,我们从论文只检索到中国科学院计算技术研究所的王兆其研究员等人的研究,查询近5年的国家自然科学基金资助项目,在这方面也只在20062008年他们的基于多样本融合的个性化逼真虚拟人实时建模方法研究被资助过。如前所述,他们的工作侧重于通过输入人体测量学参数对标准人体模型进行编辑,从而获得体型个性化的3D人体模型;另一方面,利用文本控制虚拟人的研究,在国际期刊和国际会议上几乎检索不到国内学者的论文。而美国、瑞士、日本、韩国等国的学者不断发表他们的研究成果,从论文上可以看到他们都有国家科学基金的支持,因此,我们认为,尤其是高校,非常有必要开展这方面的研究,为个性化虚拟人的广泛应用奠定理论研究基础。

如今,像微软的Windows Live MessengerSkype和腾讯QQ等即时消息应用程序使人们能够通过因特网和他人进行实时通讯,但这些系统如果不打开摄像头的话(在办公室等公共场所常因避免打扰他人而不便打开摄像头)往往只支持文本输入和一些预定义的需要手动选择的表情符号。因此,建立一个更加自然、真实的实时3D交互系统,不仅让用户可以选择适合自己社会背景的个性化虚拟人,而且还能让虚拟人根据用户输入的那种自然语言文本做出符合那种语言使用人习惯的动作和表情,是我们的研究任务。在我们的前期工作中对此做了些粗浅的尝试,我们通过分析输入文本并从中提取出如国籍或民族等信息,由此选择不同服装、肤色的虚拟人,并合成不同动作或表情习惯的虚拟人。比如,当用户输入中文我去游泳和日语私は泳ぎに行时,虽然表达的是一样的事情,但日语的语序跟中文不同,虚拟人的动作顺序也不同。

认知异构无线网络自适应位置指纹定位技术研究

*(信息学院)

1 概述

20年来,无线通信技术呈现出异常繁荣的景象,出现了许多新型无线网络,如卫星网络、蜂窝移动通信网络(2G/3G/LTE)、移动自组织网络(ad hoc)、Wi-FiWiMAX、无线传感器网络(WSN),RFIDUWB等等,这些无线网络面向不同的应用场景和目标用户,在不同国家和地区有着广泛的应用。但由于这些网络都是针对某些特定的业务类型和特定的用户需求而专门设计的,所以它们从底层的接入方式到高层的资源管理与控制等技术都不尽相同,彼此互不兼容,且任何一种单一的无线通信方式既不能够满足用户日益增长的业务需求,又不能有效地利用宝贵的频率资源。因此,多类型网络共存与融合是未来无线通信网络发展的必然趋势。各种无线网络通过互联互通,相互融合、协同工作,才能真正实现在任何时间任何地点为任何人提供多媒体业务的目标。

异构无线网络融合是一个庞大复杂的课题。目前针对异构无线网络的融合问题,研究人员投入了大量的精力物力,相继提出了不同的解决方案。其中,基于软件无线电的认知无线网络为实现未来异构网络的融合与协同提供了新的研究思路。认知网络从多角度(无线环境/ 网络环境/ 业务环境等)为异构网络的融合提供了一种可行的解决方案。通过引入认知技术,智能化的协作异构网络将可能逐渐成为现实。

位置感知是认知异构无线网络的一个重要特点。通过利用位置信息可以实现异构网络业务量的实时监控、基于位置的动态频谱接入、网络规划、切换;基于位置信息的传输算法优化(如基于位置的链路预算)、基于位置信息的场景感知(如位置辅助的信道环境感知)等,从而达到优化利用网络资源(频率、链路带宽和节点处理能力等)、优化端到端信息传输性能的目标。因此,在认知异构无线网络中实现节点精确定位具有重要意义。尽管针对单一网络的无线定位技术研究已经比较深入,但对认知异构无线网络而言,由于终端具有同时与一个接入系统保持多个连接或同时连接不同接入系统的能力,并且终端具有重配置功能,可以根据认知的可用无线频谱资源,自适应地改变无线接口配置,自由接入不同的无线环境,这样就使得在认知异构网络中要实现对终端的精确定位更加复杂,并且其定位系统相应也需具有自适应性,即定位精度、定位算法等都应随环境的变化而自适应变换。近年来,研究者对异构无线网络和认知无线电的定位技术进行了初步的研究,但离满足未来认知异构网络自适应定位系统的要求还有一定的距离,还有很多关键技术需要研究。

位置指纹定位技术是无线定位技术中的一种,其受多径效应、NLOS等不利因素的影响较小,无需对移动终端和网络硬件环境做任何修改,可以有效解决GPS定位时所谓的都市峡谷Urban Canyon)效应以及基于TOA/AOA等技术的NLOS问题,实现相对容易。因此,近年来受到越来越多研究者的重视。2004年,《database correlation method with error correction for emergency location》的研究结果显示:在GSM网中采用相关数据库定位精度可以达到44米,在UMTS网中的精度可以达到25米,与GPS的定位精度接近。这一结果进一步推动了位置指纹定位技术的研究应用。但由于位置指纹定位算法前期需要进行大量测量工作,且因为环境变化而位置指纹数据库不能随之自动更新会导致精度急剧下降。因此,目前的位置指纹定位技术不适用于环境变化快的情况。随着多源信息融合理论的发展,将多源信息融合技术运用在位置指纹定位技术中,有望可以解决位置指纹定位中存在的这些关键技术难题。作者拟针对认知异构网络中定位问题的特殊性,开展认知异构无线网络自适应定位系统架构及基于多源信息融合理论的认知异构网络位置指纹自适应定位算法相关关键技术的研究。

2 国内外研究现状及发展动态分析

关于移动终端定位问题的研究已经历时很久。但由于非视距(NLOSNone-line-of-sight)等技术难题,目前网络中实际运用的定位技术主要采用的还是基于Cell-IDCell Identity)和GPS的定位技术。未来通信网络将朝着宽带化、扁平化、泛在化、异构无线融合网络方向发展。认知无线网络对融合各种现有异构网络将起到关键的作用,其可以针对异构网络进行有效的融合。认知异构网络将是未来网络的主要形式。现有定位技术在未来融合的认知异构无线网络环境下要投入实际运用,还需要进行深入研究。下面将对本项目有关的研究现状进行分析。

2.1 异构无线网络定位技术研究现状

Cooperation of 4G Radio Networks with Legacy Systems》(Matthias Lott, Vaia Sdralia, Mylene Pischella, Delphine Lugara)、《Cooperative Services for 4G》(Simone Frattasi, Basak Can, Frank Fitzek, Ramjee Prasad)、《Cooperative Techniques and Principles Enabling Future 4G Wireless Networks》(Marcos Katz, and Frank H.P. Fitzek)、《Defining 4G Technology from the User Perspective》(S. Frattasi, H. Fathi, F.H.P. Fitzek, M. Katz, R. Prasad)提出了蜂窝+ad hoc的异构网络结构,并对该网络结构的协作框架、协作体系等问题进行了研究。在该网络结构下,移动终端可以通过相互间的高速链路进行信息传输,实现用户间的协作,从而提高服务质量。基于该网络结构,2006年,Simone Frattasil提出了一种协作定位方法。仿真结果表明,在LOS环境下,该方法比单独基于移动终端到基站的TOAAOA信息进行混合定位的定位精度高。但该算法的缺点是:在NLOS环境下,由于某些MSBS间是LOS line-of-sight)传播,而某些MSBS间是非视距传播(NLOS)。因此,在利用混合定位算法获得MS初始位置时,处于NLOSMS的初始位置与实际位置偏差很大,而处于LOSMS初始位置比较精确,在移动终端之间完全可以满足LOS传播的条件下,第二步进行位置迭代修正时,参与迭代的LOS MS定位精度可能不但不能提高,反而会下降。2007年,Carlos Leonel Flore Mayorga研究了未来移动通信网中,通过利用短距离通信获得的额外信息来进行协作定位,提高定位精度,提出了支持WiMAX/WiFi的异构网络协作定位系统。该系统主要基于一种数据融合的思想来实现定位精度的提高,融合方法直接采用简单的RSSTDOA加权。在WiMAX/WiFi异构环境下的仿真结果证明该方法可以有效提高定位精度。论文得出了协作定位是很有前途的技术,建议纳入4G标准中。但该文中方法也有一些不足,例如没有利用协作移动台在抗NLOS方面的作用;BS之间TDOA检测还是采用的互相关法,多径分辨能力不足;利用RSS进行测距精度有限等问题。同年,Simone Frattasi提出了4G无线网络中的ACPSAd-Coop Positioning System)定位系统。该系统支持蜂窝 +AD HOC异构结构,并提出对短距离通信和远距离通信获得的定位信息进行简单组合和加权来提高定位精度。数值结果表明协作定位精度高于非协作方式。但该文的加权系数很难确定,很难找到最优的加权系数;其跟踪性能有待进一步研究。2007年,Stefan Brüning介绍了德国柏林洪堡大学开发的协作定位系统MagicMap。该系统的基本思想是通过信号特征匹配进行定位,而协作的思想体现在充分融合了各种无线网络技术,利用现存的各种网络信息及各种测量信息进行定位。测试结果表明,定位精度明显提高,定位系统覆盖范围也增加,并且其标准化的接口适用于任何无线网络技术,如ZigbeeRFIDWLAN。同样基于《Cooperation of 4G Radio Networks with Legacy Systems》(Matthias Lott, Vaia Sdralia, Mylene Pischella, Delphine Lugara)的网络结构,Qimei Cui提出了基于相似三角形的协作定位算法,该算法的缺点是移动性对算法精度的影响大。Zhang Yiheng提出协作ML定位算法并分析了CRLB界。Ahmad Shafiei Soork[提出了基于MS-MS链路和MS-BS链路的接收信号强度,利用非线性最小二乘的方法来进行协作定位。S. Sand and C. Mensing分析讨论了特殊环境如室内的协作定位,提出了基于滤波器的异构数据融合的协作定位方法。《Cooperative Multi-Radio Localization in Heterogeneous Wireless Networks》(Shih-Hau Fang, and Tsung-Nan Lin)探讨了异构网络中的定位算法问题,提出了基于RSSDMFRDirect Multi-Radio Fusion)算法和CERPCooperative Eigen-Radio Positioning)算法,并在GSMDVBFMWLAN等不同异构网络环境下进行了测试。文献[17]提出了异构网络环境下,基于终端间的协作抑制NLOS误差的方法。

从上面的分析可以看出,异构网络的定位问题已经受到研究者们广泛的关注,大多数研究者采用了通过数据融合和协作的方式来提高系统的定位精度。尽管目前在这方面已经取了一些成果,但也还存在一些关键问题需要进一步深入研究。并且目前关于异构网络定位技术的讨论,主要针对的是异构非认知网络,定位方案仅针对某种确定的异构网络形式。随着无线通信技术的发展,认知异构网络将是未来异构网络存在的主要形式。在认知异构网络中,终端采用的接入技术是随时变换的,并且同时可能接入的接入系统数量也是随时变换的,这样一来,就要求定位技术具备自适应性,能随着网络环境 (主要是无线、移动环境)的变化而自适应变换。因此,在深入研究异构非认知网络定位技术的基础上,开展自适应的认知异构网络定位技术研究,充分利用异构网络资源、实现多模移动终端随时随地的高精度定位是有必要的。

2.2 认知无线电定位技术研究现状

认知无线电(Cognitive RadioCR)的概念由Joseph Mitola III 1999 年首先提出,并在其博士论文中对此进行了进一步地阐述。认知无线电的基本出发点是:为了提高频谱利用率,具有认知功能的无线通信设备可以机会式工作在已授权的频段内;同时,非授权用户的接入不能对已授权频段内用户通信造成干扰。为了降低次用户对主用户的干扰,次用户对主用户空间位置进行估计是其中的一个有效途径。为了解决认知无线电网络中次用户对主用户进行定位的问题,2007年,南佛罗里达大学 Hasari Celebi and H useyin Arslan提出一种自适应认知无线电定位系统。该系统可以根据室内室外环境自适应调节定位精度。其基本思路是根据定位精度要求,由CRLB确定对带宽的要求,然后由混合OVERLAYUNDERLAY动态频谱管理方案(H-EDSM))决定频谱接入方式。定位精度越高,复杂度越高,因此,该定位方法需要在定位精度和复杂度之间进行折中。2008年,中国学者朱永建提出的基于自适应TOA的认知无线电位置感知算法的思路与《Adaptive Positioning Systems for Cognitive Radios》(H. Celebi, and H. Arslan)类似。在该文献中作者还提出并论证了增加Underlay方式定位几率的措施,即增加脉冲波形频率或增加CR接收机的灵敏度。2008年,清华大学的马志垚等人提出了一种在认知无线电网络中基于检测概率进行主用户定位的算法,推导了该检测概率与主次用户位置之间的关系。该算法可以在不干扰主用户正常工作的情况下,利用次用户之间的合作感知结果进行定位,并估计出主用户的三维地理位置信息。2009年,意大利和澳大利亚学者提出一种利用粒子滤波的方法来追踪认知无线电网络中主用户的位置。2010年,西班牙学者Liliana Bolea等提出一种利用图像处理技术来确定认知无线电网络中的主用户位置的方法。同年,伊朗学者Kazemi, M提出一种用于认知无线电网络的动态AOA-RSS的定位算法。该方法利用AOA-WLS算法和RSS-WLS的位置估计误差的根均方差来决定是采用AOA-WLS算法还是RSS-WLS进行主用户位置估计。仿真结果表明,该文献提出的AOA-RSS定位算法在不增加计算复杂度的情况下,定位精度比单独的AOA-WLS算法和RSS-WLS算法高。

以上关于认知无线电定位技术的研究,主要涉及的是次用户通过对主用户信息的测量和感知,完成对主用户位置的确定。其还停留在认知无线电层面,还没有上升到认知网络。随着人们对认知无线电研究的逐步深入,人们对借助认知技术来实现无效资源的有效利用和网络性能的整体提升的认知网络越来越重视。认知网络与认知无线电确实有一些共同的特性,但却是两个不同的概念。认知网络与认知无线电的主要区别在于认知网络重视的是整个网络的性能和系统总体目标,而认知无线电则更多考虑如何根据网络环境来调节工作频率和频段以高效利用宝贵的无线频谱资源。因此,认知无线电只是认知网络的一种特例,认知无线电定位技术要在认知网络中应用还需要改进。

未来无线通信系统必定是多种异构网络共存的局面,认知网络为异构网络融合提供了重要手段。目前IEEE标准化协会在讨论异构无线接入网络融合架构的标准时采用了认知网络的概念。目前对基于认知的异构网络融合架构下的定位技术研究相对较少,但作为无线技术中必然牵涉的问题,对认知异构网络定位技术的研究具有理论和前瞻性科研意义。

2.3 位置指纹定位技术研究现状

对于蜂窝网中移动终端的定位问题,自美国FCC公布E-911定位需求以后,得到了国内外学者、科研机构、厂商的高度重视和广泛深入研究,取得了大量的有代表性的研究成果。但是,由于NLOS等技术难题还没能从根本上解决,使得在蜂窝网中采用TDOATOARSSIAOA等传统的基于信号特征参数估计的定位技术仍然无法取得令人满意的定位精度;FCC也将 E-911 的时间期限延至 2012 9 11日。尽管GPS等卫星定位精度高,但在室内、街道峡谷、隧道等场所却无法采用GPS等卫星定位技术对移动终端进行定位。受定位方法和技术、精度缺陷、成本等的制约,目前国内外运营商为手机用户提供的定位服务还很有限,例如中国移动只能为GSM用户提供基于Cell ID的低精度定位服务,无法为用户提供更多的基于用户位置的增值服务。目前较广泛使用的位置指纹法(Location Fingerprint)可以很好地解决如上问题。2001年,Heikki Laitinen在《Database Correlation Method for GSM Location》中首先提出了采用基于DCM(数据相关)的位置指纹定位方法对GSM移动终端进行定位。DCM算法的基本思想是计算指纹数据库中指纹样例与实时位置指纹之间的欧几里德距离,欧几里德距离最短的指纹样例对应的位置即为移动终端的估计位置。实验结果表明,该方法取得了优于TDOA的定位性能。但文献中采用的位置指纹数据库是静态的,网络或传播环境(如新建房屋)的变化将导致定位精度的急剧下降。2007年,B D S Lakmali等人对具体实现DCM方法涉及到的指纹数据的获取、指纹数据库的建立进行了研究,提出了改进的KNNWKNN DCM算法。并且在进行指纹匹配之前利用滤波器对数据进行了预处理。改进后算法的定位精度比DCM算法有所提高,但依然没有解决DCM算法存在的问题。《Database Correlation Method for Multi-system Location》(P. Kemppi)对采用DCM方法对GSM用户进行定位估计涉及的各种具体问题进行了详细、深入的分析研究,探讨了该方法在WLAN中的实现问题,研究了通过GSMUMTSWCDMA)网络位置指纹信息融合提高移动终端定位精度的方法,提出利用卡尔曼滤波对指纹定位结果进行滤波实现对移动终端的跟踪。基于不同场景下的现场试验验证了DCM方法的有效性。近年来,基于位置指纹的室内定位技术也受到了研究者们更加广泛的关注和深入的研究,出现了大量研究成果。在定位方法方面,除DCM方法外,还广泛研究了概率分布,神经网络、支持向量机等方法和技术。其中,神经网络被用到离线采样阶段信号强度与位置的关系模型的训练中来,由此对用户的定位就可以看成是利用训练出的模型对信号强度信息进行分类的问题。Castro等人用一种重复网络(Recurrent Network),也就是 Elman网络来学习来自多个接入点的信号强度与二维位置坐标(x, y)之间的非线性关系。《Nhat Neural Network Models for Intelligent Networks: Deriving the Location from Signal Patterns》(R. Battiti, A. Villani)讨论了多层感知机网络在基于位置指纹的定位技术中的应用。虽然神经网络的定位精度比 k-NNSS 高,但是提高的幅度很小。此外,神经网络还存在模型的训练时间长,需要大量的样本数据才能得到准确的结果的不足。支持向量机(Support Vector Machine,简称 SVM)作为一种非参数化的有监督分类器也被引入到解决室内定位问题中。支持向量机方法是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度,Accuracy)和学习能力(即无错误地识别任意样本的能力)之间寻求最佳折衷,以期获得最好的推广能力(Generalization Ability)。虽然这种方法新颖而且在模式识别领域使用的也很成功,但它在室内定位方面的性能与其他技术相差不多。SVM 方法更适合于解决分类问题,即决定一个区域在房间内还是房间外。概率方法是通过条件概率为位置指纹建立模型并采用贝叶斯推理机制来估计用户的位置。《基于WLAN的室内定位技术研究》(张明华)、《A Probabilistic Approach to WLAN User Location Estimation》(Roos T, Myllymaki P, Tirri H, et al.)给出了两种估计条件概率分布函数或似然函数的方法:核方法和直方图法。在该方法中,每个测量样本的概率用高斯核函数表示。核的宽度是一个需要设置和调整的参数。直方图法将信号强度在最小值与最大值之间划分为若干区间(bin),并统计每个区间里信号强度出现的次数,其概率密度函数是一个分段的常函数。直方图法中区间的个数也是一个不确定的参数。对于这两种方法,如何确定合适的参数没有一定的标准可依,而且还可能出现过拟合的问题。经过多年的研究,目前已有一些基于位置指纹定位技术的WLAN室内定位系统,例如比较有代表性的CricketRADAREasy Living等。在国内,北京邮电大学、哈工大、中科院、武汉大学等高校和科研机构也开展了广泛研究,开发了一些实验系统。

位置指纹定位技术受多径效应、NLOS等不利因素的影响较小,无需对移动终端和网络硬件环境做任何修改,实现相对容易,因此,只要能获取覆盖环境的准确位置指纹信息,提炼、建立准确有效的位置指纹数据库,基于该方法对移动终端进行高精度定位是完全可能实现的。目前,在国内Google已为GSM用户提供了基于位置指纹技术的定位服务,鹏润科技则首先为国内许多大中城市以及吉隆坡、雅加达、香港等境外城市的GSM手机用户提供了基于DCM的定位服务。

尽管位置指纹技术取得了一定的成就,但目前的技术主要针对的还是基于单一一种指纹信息如RSS,且指纹数据库也是静态的,因此只是适用于环境变化不太大的地方。当环境产生变化的时候,由于静态指纹数据库无法根据环境的变化对数据库进行修正。这样,定位精度将急剧下降。目前关于位置指纹数据库的动态更新问题,通过文献搜索,仅见《Learning Adaptive Temporal Radio Maps for Signal-Strength-Based Location Estimation》(Jie Yin, Qiang Yang)对其进行了讨论,但该文献中的方法需要建立一些固定的监控节点。由此可见,如何建立自适应环境变换的位置指纹数据库是一个迫切需要解决的问题。而认知异构网络由于网络和网络之间具有感知链路、终端和终端之间也有感知链路,感知信息的变化可以反映出环境变化的一些特征,且认知异构网络中可以作为指纹的信息还有很多,如信号传输速率变化特征等,充分利用网络中的各种感知信息,结合多源信息融合理论,实现环境变换感知及数据库自动更新是有可能的。因此,开展相关的识别技术和更新技术研究具有重要理论意义和运用价值。

由上面的分析我们可以看到,认知异构网络是未来通信的主要形式,其位置感知技术在未来无线通信领域占有举足轻重的地位,跟踪并进行该方向的研究具有重要意义。但目前该领域的研究还存在如下几个主要问题:(1)异构网络定位技术主要讨论的还是异构非认知网络中的定位问题;(2)认知无线电定位技术的研究中主要讨论的是次用户对主用户的位置定位,还没有上升到认知网络层面;(3)目前位置指纹定位主要讨论的是单一网络下单一指纹数据库的建立和数据匹配算法的研究。在异构网络下的研究不多;(4)静态指纹数据库的应用将因环境变化而导致定位精度的急剧下降。如何建立自适应环境变化的位置指纹数据库,实现指纹数据库的自动更新及相应的快速数据匹配算法都还值得探讨。

动态环境感知的移动对象不确定性轨迹预测关键技术研究

乔少杰*(信息学院)

1 引言

随着无线通信和定位技术的高速发展,人们对持续移动物体所处的空间位置的跟踪能力不断加强,推动相关应用领域的研究,如智能交通控制、智能导航和军事指挥等应用研究不断深入。此类应用系统往往基于移动对象数据库构建,其中存储了大量关于移动对象时空位置及运动状态信息。这些数据通常以轨迹的形式存储,其中隐藏着关于移动对象大量的行为特征及运动规律。然而,移动对象所处的运动环境往往是动态变化的,不能单纯依赖静态交通网络环境预测其运动行为,需要综合考虑如下随时间变化的动态环境因素:(1)移动速度和方向的动态变化,如:高速行驶、减速转弯;(2)交通状况,如:红绿灯、交通堵塞;(3)天气状况,如:大雾、下雪、暴雨。所谓动态环境是指移动对象所处的宏观网络环境、内部自然环境、外界自然环境等环境的一致性随着时间的变化在形式和状态上所表现出来的差异,其中各种环境是处于变化的,不稳定的一种复杂多变的状态,其主要特征是动态变化。我们将动态环境感知(dynamic environment awareness)定义为对影响移动对象位置变化的动态环境因素进行建模,对难以表述的环境条件进行量化和形式化表示。如何综合考虑动态环境因素高效准确地查询和预测移动对象不确定性运动轨迹成为当前移动数据管理领域的研究热点。

移动对象位置预测是一项非常困难和富有挑战意义的课题。(1)单纯就移动对象数据本身而言采用传统数据挖掘方法是不可取的,因为通过定位系统获得的移动对象数据流信息量大、具有不确定性,需要稳定、可伸缩性的挖掘方法进行处理;(2)位置预测需要尽可能快地对可能运动轨迹进行评价,延时或者滞后将产生无意义的预测结果;(3)基于模拟技术的预测方法依赖于大量输入参数,这些参数的设置极大地影响模型的准确性,对于不确定性的轨迹数据进行预测,需要考虑诸多客观因素和领域专家知识;(4)如果算法设计不合理,随着移动对象数目的增加,模型的计算代价可能呈指数级增长。

动态环境感知的移动对象不确定性轨迹预测关键技术研究是申请人对正在进行的一项基础研究项目受限网络中移动对象不确定性轨迹预测关键技术研究进行扩展提出的新的应用基础型课题,将研究对象扩展到一般的移动对象,如移动设备、车辆、舰船等,将运动范围扩展到广域空间,使其更具普适性,处理更加复杂的动态环境下移动对象的轨迹预测。项目旨在从轨迹预测复杂问题中剥离移动对象的内在固有性质,设计集成动态环境因素的移动对象轨迹预测模型,将移动对象位置索引、频繁轨迹模式挖掘、时间连续贝叶斯网络作为主要技术手段,准确高效客观地预测对象不确定性运动轨迹,揭示移动对象动态行为普适规律,为相关部门提供辅助决策支持,使研究更具实用性。

下面以移动对象的轨迹预测为主要背景,列举四个实例来说明问题意义和概貌。

问题1(智能交通系统):智能交通旨在建立起一种在较大范围内、全方位发挥作用的实时、准确、高效的综合运输和管理系统。该系统将采集到的各种道路交通及服务信息处理后,传输到运输系统的各种用户(如:驾驶员、居民、警察),出行者可实时选择交通方式和交通路线,交通管理部门可进行自动和合理的交通疏导、控制及事故处理。

决策者问:每天哪一时段,具体在哪一区域是机动车出行的高峰期?采用何种手段可以使路网上的交通流量处于最佳状态,改善交通拥挤和阻塞状况,最大限度地提高交通的通行能力,提高整个公路运输系统的机动性、安全性和运输效率。

形式化描述为在一组约束下,确定一组阈值εσ,使得:

{Num(Ti) | ∑Ti <ε, i∈{机动车}}→{Pj<σ| j∈(0.0 AM, 24.0 PM)} Supp, Conf*)。

上述表达式(*)意义为:求取当各种车辆总和∑Ti<ε且保证不同时段j内交通事故发生率Pj<σ时各种车辆的数量Num(Ti),并且在测试数据集上,支持度超过阈值Supp,置信度超过阈值Conf。其中,ε表示路网交通运输能力,σ表示交通事故发生率阈值。

问题2(军事数字化战场):在战场环境,作战单元往往需要知道特定区域内移动敌我双方目标的位置信息或对重要移动目标位置进行跟踪监视。战场环境中的移动目标位置信息通过无线通信网络、传感器网络等方式提供给位置服务平台,战场管理系统位置服务平台负责管理战场环境中的各种移动目标并实时回答作战单元的各种查询服务。

决策者问:查询在某区域内敌军坦克的分布情况,查询距离目标对象最近的直升机,敌方战机将可能出现在哪一领空区域?完成任务后将朝哪一方向逃离等问题。

问题3(罪犯逃逸路线跟踪预测):罪犯逃逸路线预测问题一直困扰着公安和刑侦人员,因为狡猾的罪犯往往具有违背常规的运动行为模式,给案件的侦破带来极大的困难,这就需要设计一种结合罪犯心理状态、行为特征、自然因素和刑侦人员先验知识的智能化轨迹预测算法。轨迹预测的目的是预测罪犯可能的运动行为,包括如逃犯下一步将要选择哪一条街区、哪一个方向、或者在当前街区做加速还是减速运动一类的信息。

决策者问:针对偷车逃逸的罪犯,需要最短多少时间在哪些街区迅速安排多少警务人员?这是移动对象轨迹预测问题的一个真实应用,设计针对罪犯进行精确定位和跟踪的算法,可以极大地提高公安部门的办案效率并对警力资源实现优化调度。

问题4(个人旅行路线模式挖掘):为了能够为游客提供个性化舒适的服务,旅游公司希望能进一步了解每一个人的旅行规律。个人旅行往往通过照片记录旅游行程及沿途景观,其带有作者、时间和地点信息,可以从数据中恢复出用户当时的旅行路线。针对不同的旅行目的地从数据集中找出频繁出现的路线,为未来的旅行提供有益的参考。

决策者问:如何根据经过标注的照片预测个人旅行路线?已知某游客在某地的旅游行为特征预测其在其他城市不同的旅游目的地,进而实现个性化旅游线路推荐等问题。

上述几个真实应用都离不开移动数据管理技术的支持,但是当前这一领域的很多研究方向尚未形成完善的理论体系,尤其是对移动对象不确定性轨迹预测问题的研究。因为对移动对象位置进行预测需要考虑更加复杂能够被对象感知的动态环境因素,目前还没有普适的算法用于预测不同类型移动对象的轨迹。我们综合考虑动态环境因素对移动对象运动的影响,提出具有通用性且高效准确的轨迹预测方法,形成一整套关于移动对象不确定性轨迹预测的科学方法和理论体系,为智能导航和精确定位提供新的技术方法。

2 国内外研究现状及发展动态分析

挖掘移动对象不确定性轨迹问题最近得到国内外学者的广泛关注,现有关于轨迹预测的工作主要集中于发现频繁轨迹模式,移动对象位置查询和索引,移动对象不确定性管理,轨迹(路径)预测四个相关领域,主要研究内容如下。

2.1 挖掘移动对象频繁轨迹模式

典型工作1:为了克服传统轨迹预测算法通常假设对象运动满足线性变化的不足,Tao Yu-fei等学者提出了一种监控和索引移动对象的架构,设计了频繁轨迹模式挖掘算法STP-tree,算法可以有效地查询移动对象频繁运动轨迹。该方法的不足在于设计的挖掘方法不具有普适性,对于真实的频繁轨迹查询架构的评价方法尚需进一步验证。

典型工作2:为了挖掘不确定性轨迹,Morzy设计了高效的频繁轨迹挖掘算法Traj-PrefixSpan。算法通过构建关于移动对象位置的概率模型从移动规则中匹配对象动态运动轨迹。算法的优势在于充分利用移动对象数据库的历史信息,具有较高的预测准确性。其不足主要是当移动对象数据量较大时,建立索引的代价较高,计算量较大。

2.2 移动对象位置索引技术

移动对象轨迹预测研究中很重要的一个步骤就是对移动对象建立时空索引,然后预测其将来可能发生的位置移动。从索引时空数据的时间性质进行划分,现有时空数据索引可以分为索引历史位置、索引当前和未来位置两种。

1、历史轨迹数据的索引技术

典型工作1:中国科学院软件研究所丁治明教授提出了一种网络受限移动对象不确定性轨迹索引结构UTR-tree。在该索引结构的支持下,不仅可以快速地处理对移动对象过去可能位置的查询,而且能够对其当前和未来的可能位置进行高效的查询处理。

典型工作2Saltenis 等学者提出的TPR-tree采用线性函数预测物体运动状态,同时利用线性插值描述时空对象的复杂运动。该方法的不足在于假设对象的运动模式呈线性函数关系,与真实情况不符,因为对象的移动通常是未知的并且具有动态变换模式。

典型工作3Pfoser提出了受限公路网络环境中移动对象索引方法,将二维轨迹变换成一维线段集合,然后再映射为对应的轨迹数据。该方法的缺点在于构成轨迹的边在空间分布、距离或拓扑关系上的变化都会使得这种索引结构出现问题。

典型工作4:李红军和作者针对受限网络中移动对象轨迹索引方法的不足,提出一种不确定轨迹索引结构。借助该结构能够对移动对象当前和未来可能位置进行高效查询处理。该方法不足在于提出的基于R*-tree的索引维护代价较高,需要进一步优化。

2、移动对象当前和未来位置的索引技术

典型工作1:针对移动对象建建索引时更新代价较高的问题,Biveinis等学者提出一种基于R-tree的高效索引更新算法RR-tree。算法的核心思想包括两个主要操作:缓存操作和聚合操作。该方法的不足在于节省了磁盘I/O操作的代价,却降低了CPU性能。

典型工作2Tao Yu-fei等学者提出了一种采用辅助索引结构的TPR-tree,称为TPR*-treeTPR*-tree在进行结点删除时,通过一种改进的压缩技术压缩其MBR。但由于索引构建时会将空间域邻近但速度域中不相邻的移动对象聚集在同一个索引页面中,造成同一页面中的移动对象速度分布不均匀,导致索引性能随时间变化而迅速下降。

典型工作3:为了对移动对象的索引进行高效更新,陈继东和孟小峰教授近期提出了一种新型存取方法ANR-treeANR-tree使用自调整单元来扩展R-tree,将路网中具有相似运动特征的对象聚集在一个自调整单元中,进而预测整个组的未来运动轨迹。

2.3 移动对象位置查询技术

移动对象位置查询分为:范围查询、邻近查询、聚集和连续查询,代表性工作如下。

典型工作1Trajcevski等学者将轨迹描述成三维空间中由不同圆柱构成的实体,集成了运动不确定性因素。此外,提出了移动对象的时空范围查询算法。

典型工作2Trajcevski等学者近期提出一种针对移动对象轨迹的连续最近邻查询算法,该算法的优势在于可以查询移动对象某一时刻在不确定性运动区域的精确位置。

2.4 移动对象运动不确定性管理

移动对象数据存在诸多不确定性因素,如位置的不确定性、对象存在的不确定性、对象运动行为的不确定性等。当前研究主要集中于移动对象位置的不确定性。

典型工作1Trajcevski等学者利用关于轨迹点分布的各种概率密度函数将轨迹片段刻画在不同轨迹圆柱体中。该方法的不足在于移动对象位置动态变化的情况极其复杂,不可能将所有概率密度函数考虑进去,无法对所有的轨迹运动状态进行定量的刻画。

典型工作2Pfoser 等学者对移动对象过去及当前位置进行建模,提出了误差椭圆的概念,通过假设对象位置在误差椭圆内是均匀分布的来处理不确定性查询问题。

典型工作3:丁治明教授根据触发位置更新的距离阈值、速度阈值,以及移动对象在某一时刻的速度,计算出对象在POS × T(位置和时间坐标平面)上的可能位置。

2.5 移动对象轨迹预测

典型工作1Jeung等学者提出了基于轨迹模式和运动函数的混合轨迹预测模型TPT-tree,该模型采用Signiture tree的结点更新策略,对索引的轨迹模式应用各种位运算,利用轨迹相似性度量、前向查询和后向查询处理轨迹模式进行高效准确的预测。

典型工作2:近期比较有代表性的工作是由Parker等学者提出的基于axiom的高效和准确的移动对象运动目标预测方法。该方法设计了移动对象运动目标概率函数可以满足的若干axiom,这些axiom用于精确度量预测轨迹与真实轨迹之间的差异。

典型工作3:郭黎敏等学者提出了不确定性轨迹度量新方法,设计了一种基于路网的不确定性频繁轨迹模式挖掘算法,给出了利用索引快速查找轨迹模式并进行预测的方法。该方法的优点在于在保证较低存储空间前提下具有较高的预测准确性。

典型工作4Song等学者近期在Science上发表了一篇介绍如何预测人类移动性的文章,通过测量个体轨迹的信息熵定量地给出了人类动态运动轨迹具有93%的可预测性,并证明了人类有规律的运动路线与距离无关。这一工作为当前的轨迹预测研究提供了有利的借鉴和支持,使研究人员相信具有随机性的运动轨迹不再是不可预测的。

典型工作5:针对已有轨迹预测算法仅能预测短期内运动路径,Jeung等学者近期提出了一种路网移动预测模型,该模型可以准确计算对象在交叉路口运动变换模式和在不同路段上的速度信息,进而预测最大近似轨迹,但该方法局限于在路网中使用。

典型工作6Chen等学者近期在Information Science上提出了基于概率模型的个体运动路线预测系统。该系统通过对频繁轨迹模式进行挖掘,利用Markov模型预测移动对象连续运动轨迹,能够在计算代价较小情况下准确预测对象运动路线。

典型工作7:现有轨迹预测方法(以典型工作2为例)往往忽略对象移动速度和方向的影响,导致问题求解缺乏一般性。为了克服这一不足,申请人针对移动对象轨迹预测问题提出了一种基于时间连续贝叶斯网络的轨迹预测算法PutMode。并从理论上验证了模型的准确性。但是该模型没有考虑更加复杂的动态环境因素,如交通状况的影响。

从以上对移动对象轨迹预测相关技术的研究现状分析中我们可以得到如下结论:

1、如果针对海量轨迹数据挖掘移动对象频繁轨迹模式,STP-tree等算法需要多次扫描数据库,代价很高,需要设计新型频繁模式挖掘算法,提高挖掘的效率和准确性。

2、为了管理移动对象运动不确定性,我们需要设计一种精确的轨迹相似性度量方法,该方法需要考虑不同类型的移动对象,并且能够在三个维度(2维空间信息+1维时间信息)上设计非线性运动函数对移动对象位置信息建模,对轨迹运动状态定量刻画。

3、针对移动对象位置索引更新代价较高的问题,虽然已经提出了一些解决办法,如RR-treeTPR*-tree,但是上述方法往往受运动网络的限制,需要将上述方法扩展到不受约束的广域空间,使索引算法更具通用性。

4、现有轨迹预测算法往往忽略动态环境对移动对象运动行为的影响,如:主观因素移动速度和方向的影响,客观因素交通状况和天气的影响,导致问题求解缺乏一般性,因为真实场景中对象的运动环境更加复杂并具有更多不确定性。因此进行轨迹预测时需要更加全面地考虑影响移动对象运动的动态环境因素,提高挖掘的准确性。

3 科学意义和应用前景

1、新的基础性问题。动态环境感知的移动对象不确定性轨迹预测问题是从智能交通控制、罪犯逃逸路线预测、实时跟踪定位等实际问题中抽取出来的新型应用基础研究。与传统时空对象位置查询预测不同,本项目不夸张方法的复杂程度,力图把复杂问题简化,以时间连续贝叶斯网络和数据挖掘方法为重要手段,提供目前传统数据分析方法不能提供的知识,注重从宏观上挖掘本质规律,从微观上解决关键技术难点。

2、有较广的应用前景,服务于我国高速铁路事业。从本研究中得到的方法、理论和算法在适当变通后,可应用于广泛的领域,如:智能交通管理、舰船管理、罪犯逃逸路线预测、台风和飓风预测等具体应用中。此外,可以将相关技术,如位置索引和轨迹预测直接应用于我国高速铁路建设中解决列车运行过程的智能控制等实际问题。

3、在移动数据管理领域增添一个新的研究任务。我们首次将时间连续贝叶斯网络理论应用于移动对象不确定性轨迹的预测,可以为移动数据管理这一研究领域提供新的理论基础和有特色的数学模型,将吸引更多研究者参与,成为一个新的创新源头。

研究动态环境下主客观因素对移动对象运动轨迹的影响将使轨迹预测的结果与客观更加符合,预测的结果更加准确。

下一代Internet (NGI)网络流特性分析与性能评价研究

谭献海*(信息学院)

1 概述

1、网络流量特性是深刻理解网络体系架构及网络控制机制的切入点。下一代InternetNGI)具有全光交换、高速(单波长传输能力100Gbps以上)、高流量聚集、低缓存和多样性(多种网络、多种业务流的不同服务质量需求)等特点,决定了其流量将具有更复杂的特性,如同时具有长短相关性、多尺度特性等。通过准确了解NGI的流量特性,可选择更合适的流量模型,提高网络建模及性能分析、预测、控制的准确性,为NGI网络规划与控制提供更可信的理论依据。

2、研究影响网络性能的主要因素及其影响方式,寻找影响网络性能的敏感参数,可为网络性能的客观评估和网络参数的优化配置提供科学的理论参考依据。

3、虽然目前有关网络流量自相似和长相关特性的研究比较多,但有关同时具有长、短相关性和多尺度特性的流量建模、性能分析和网络控制方法的研究却很少,缺乏实用的研究成果,迫切需要开展这方面的研究工作。

4、网络流量建模及性能分析的研究结果既可以广泛应用到许多工程问题(如流量工程、流量整形与监管、拥塞控制、队列管理、网络设备参数配置等)中,还有助于深入理解网络的细节,优化网络的工作状态。

2 国内外研究现状分析

2.1 NGI网络流分析、评价、控制及优化技术的研究不够充分

目前不管是国外还是国内,都已充分认识到Internet体系结构存在严重问题,纷纷开展下一代网络体系结构的研究。而除了体系结构外,保证NGI用户数据交换平台高速交换和服务质量保障的能力,实现网络的安全、可信、可靠和可控,以及网络的动态调整和优化也是关系到NGI成败的关键,这涉及到流量特性分析和性能评价。目前有关NGI网络流特性分析、流量建模、性能评价、控制技术,以及NGI网络机制及网络节点设备的优化设计等的研究很少。

2.2 有关网络流量特性的分析结论不统一,缺乏专门针对NGI网络流分析的研究

1993年发现网络流量自相似性以来,有关流量特性的研究非常活跃,研究结果众说纷纭,没有统一的结论。研究观点大致可以划分为三个阶段:第一阶段(1994年至2004年),这一阶段的绝大部分文献均认为传统的泊松分布模型过于简单,不能有效刻画网络的突发性,需要引入新的自相似或长相关模型;第二阶段(2004年~2008年),这一阶段的许多研究对第一阶段的分析结论是否适用于新世纪的网络提出了质疑,声称传统的基于泊松的流量模型仍然适合于刻画今天的因特网流量。原因是随着因特网速率和流量的惊人增长,作为高速光纤连接、新的传输协议以及大量流复用的必然结果,任何网络流量的不规则性(如突发性)都可能被消除掉。而最近几年开始的第三阶段的研究结果又表明流量序列的到达时间间隔仍然接近于自相似,但分组长度的突发性明显低于早期的流量,接近于泊松。

下一代Internet的全光交换、高速(单波长传输能力100Gbps以上)、高流量聚集、小缓存和多样性(多种网络、多种业务流的不同服务质量需求)等特点,决定了NGI网络流将具有更复杂的特性,需要重新评估NGI的网络流特性。到目前为止,全面评估NGI流量特性的研究还很少。

2.3 有关流量传播特性的研究很少,研究结论不一致,有的甚至相互矛盾

《网络业务流自相似传播特性研究》(张连明)、《On merging and splitting of self-similar traffic in high- speed Networks》(Fan Yan - he, Georganas N D)利用数学证明方法研究网络流量经过聚合和分裂后的特性变化情况,认为自相似流聚合和分裂后还是自相似,聚合流量的Hurst参数取各聚合流Hurst参数的最大值,分裂后流量的Hurst参数不变。《Simulation of Self-Similar Traffic in Switches Using Crossbar and Prioritized VOQs》(Xia Yu; Zhu Juhua)以仿真方式研究了自相似流量经过交换机构和优先级虚拟输出队列(VOQs)时的流量传播特性,发现相同Hurst参数的LRD流融合后得到的流量的Hurst参数不变;不同Hurst参数的LRDSRD流融合后得到的流量的Hurst参数介于最大和最小Hurst参数之间;流量分裂后LRD程度大大降低。《On Traffic Long-Range Dependence at the Output of Schedulers with Multiple Service Classes》、(Bregni, S.; Giacomazzi, P.; Saddemi, G.)、《改进的漏桶算法对输出业务流自相似特性的影响》(刘鑫等)、《Output Traffic Characterization of Policers and Shapers with Long-Range Dependent Input Traffic》(Bregni, S.; Giacomazzi, P.; Saddemi, G.)、《Characteristics of the token bucket parameters with self similar network traffic[》(Dashdorj, Yamkhin; Chuluunbaatar, Nergui; Batzul, Bold; Seongjin, Lee)等多篇文献研究了LRD流通过漏桶调节器后的传播特性。绝大部分研究结果均认为难以用漏桶调节器来降低流量的相关性,输出流量的Hurst参数与输入流量的Hurst参数相同。但也有研究结论声称借助于整形调节器可以降低流量的相关性(即Hurst参数)。

我们认为之所以得出这种看起来不一致甚至似乎矛盾的分析结果,主要是因为各个研究的假设不一样。如仿真研究没有考虑研究对象(如漏桶调节器)具有的尺度特性,并且各个仿真研究的设定条件也不相同。而数学证明的分析方法起码存在两大问题,一是作为其理论基础的中心极限定理不适合于现代网络系统,因为现代网络系统的突发性不能被平滑掉。二是只有在流量相互独立的前提下,合成流量的随机过程分析结果才是准确的,而流量的独立性假设对于开环流量(如UDP流量)比较容易满足,但闭环的TCP一般不符合独立性假设。

2.4 自相似流量建模及性能分析研究现状及存在的主要问题

最近十多年FBMα-稳定自相似过程被广泛用于进行自相似流量建模与性能分析,多个文献给出了FBMα-稳定自相似过程流量模型的缓冲区溢出概率的计算公式,有的文献进行了基于FBM模型的性能仿真研究。《自相似网络通信量及高速路由结构性能研究》(饶云华)对FBM的性能进行了数学推导,给出了平均时延和时延抖动的计算公式。《一种自相似网络平均排队延迟分析模型》(匡罗贝等)利用《自相似网络通信量及高速路由结构性能研究》(饶云华)的分析结果进行了仿真。

尽管目前有关FBM模型的研究较多,其理论或仿真分析结果有助于理解自相似流量的某些方面对系统性能的影响,但远没有取得统一一致的结论,还有不少问题有待进一步研究:

1Norros提出的FBM模型是一个渐近的分析模型,只有当缓冲区长度趋于无穷大,且利用率较大时才比较精确;

2FBM是精确自相似过程,靠唯一的Hurst参数来刻画网络的自相似特性。只能描述分形过程的长期行为。而NGI流量具有复杂的长短相关和多尺度性,不能简单地用一个单一的Hurst参数来描述;

3)目前在FBM建模与性能分析方面,给出的只有缓冲区溢出概率的计算公式,没有其它性能参数的计算公式;

4 FBM流量模型的精确性如何?模型中哪些因素影响系统的性能?如何影响?这些问题还没有得到很好回答;

2.5 流量自相似特性对网络性能的影响还不清晰、不全面,有的分析结论甚至会引起误导

现有的评估长相关特性对网络性能的影响研究存在以下不足:(1)有关自相似和长相关特性与网络性能之间的关系,一般的观点认为可以简单地用Hurst参数来反映网络的性能,Hurst参数越大,自相似程度越高,网络的性能就越差。然而实际情况远没有这么简单,这样的印象有时甚至可能是误导的。我们的初步研究结果表明可能会存在相反的结论,即Hurst参数越高,对应的队列长度和时延越小,这种现象称为交叉效应;(2)目前的自相似流量建模和性能分析方法大都片面强调流量过程统计特性的某些方面的影响,而忽略其它因素的影响。特别地,目前的网络分析、测量、建模研究主要集中在研究自相似Hurst参数上,性能分析所采用的流量模型也只匹配Hurst参数,片面强调Hurst参数的影响,这是不全面的,其分析结果甚至引起了部分人的质疑;(3)有多个因素制约着Hurst参数对网络性能的影响。除了流量特性(如Hurst参数、方差、边缘分布等)外,网络系统参数(如缓冲区长度、链路容量、利用率等)对网络性能也有重要的影响,有的影响甚至比Hurst参数还大。有关这一点,现有的研究很少涉及;(4)现有的研究工作很少综合上述各种因数来彻底弄清楚到底随着Hurst参数的增大,排队性能到底是变好还是变坏?这样一个急需回答的现实问题。

2.6 对网络流量及系统性能变化的尺度特性重视不够,缺少多尺度流量建模与性能分析的研究

造成有关流量特性的分析结论不一致的主要原因是现代网络的复杂性决定了它将具有多尺度特性。我们的初步研究结果表明,不管是网络流量还是系统性能变化均具有明显的时间尺度效应。时间尺度与Hurst参数、缓冲区长度、流量到达速率和服务速率等相关。时间尺度对网络的性能有重要的影响,但到目前为止,这方面的研究还很少。

流量和系统性能变化的多尺度特性需要引入新的多尺度流量模型。而常用的自相似流量模型,如重尾ON/OFF模型,分形布朗运动(FBM)模型和分形自回归整合滑动平均(FARIMA)模型、α-稳定自相似过程等都属于单分形模型,不能刻画网络流量的多尺度特性,急需对这些流量模型进行扩展。最简单实用的是采用多FBM模型。

FBM模型已经在诸如经济、生物力学、图像处理等许多应用中使用。但总的来看,有关多尺度流量建模与性能分析的研究还很少,研究结果还不成熟,远没有达成统一一致的结论,不少问题有待进一步研究。

2.7 国内外研究现状小结

综合上面的研究现状分析,可以看出现有的研究工作存在如下问题:

1)对NGI的性能分析、评价、控制和优化技术的研究重视不够。

2)对NGI网络流特性,特别是其多尺度性和传播特性的研究不充分。

3)基于FBMα-稳定自相似过程的自相似流量模型的性能分析问题远没有解决,影响网络系统性能的关键因素及其影响方式还不清楚;

4)对网络流量及系统性能变化的多尺度特性重视不够,缺少多尺度流量建模与性能分析的研究。

LTE-Advanced中继网络关键技术研究

*(信息学院)

1 引言

中继(relay)是LTE-AdvancedIEEE 802.16m满足ITU IMT-Advanced 4G)峰值速率要求的关键技术之一。通过在小区边缘布设中继站,可提升小区边缘用户的吞吐量、扩大基站的覆盖范围;同时,与基站相比,中继站具有成本低、发射功率小等优点。但与此同时,中继站也给LTE-Advanced网络带来流量控制和切换的严峻挑战。关于中继传输的已有研究主要从信息论的角度出发,关注多中继协同传输的性能极限。这与LTE-Advanced网络中中继站的应用场景不符。3GPP已认识到中继站的流量控制是一个重要议题,但尚未制定相关的技术标准。

我们关注LTE-Advanced中继网络的流量控制和切换问题,主要包括:中继网络实时呼叫的电信业务分析,中继网络的流量控制策略,流量控制对切换性能的影响,中继网络的预缓存技术。

1.1 LTE-Advanced中继网络

ITUInternational Telecommunication Union)将第四代(4G)移动宽带无线通信系统命名为IMT-AdvancedInternational Mobile Telecommunication-Advanced)。IMT-Advanced与第三代移动通信系统IMT-2000的显著区别在于,IMT-Advanced 支持更快的传输速率。在带宽为100 MHz时,IMT-Advanced的峰值传输速率为:高速移动(最高速度350 km/h)环境100 Mbps,低速移动(最高速度10 km/h)环境1 GbpsITU-RIMT-Radiocommunication sector)负责制定IMT-Advanced无线接口技术(radio interface technique, RIT)标准。ITU-R20083月启动IMT-AdvancedRIT标准制定工作,向所有ITU成员征求 IMT-AdvancedRIT技术提案,相关的标准制定工作计划于2011年初完成。ITU-R收到的提案主要分为两大阵营:3GPP制定的LTE-Advanced标准,IEEE制定的802.16m标准。为了取得IMT-Advanced规定的峰值传输速率,必须采用新的技术以大幅提升频谱利用率。在20 100 MHz的带宽条件下,ITU-R期望IMT-Advanced上、下行链路的频谱利用率分别达到0.7 6.75 bps/Hz1.115 bps/Hz。为了实现IMT-Advanced规定的峰值通信速率,LTE-AdvancedIEEE 802.16m所采用的关键技术包括:OFDMAMIMOcarrier aggregationcoordinated multiple processing,以及中继 relay)。我们旨在研究LTE-Advanced中继网络(LTE-Advanced Relay Networks)的关键技术,为4G移动带宽无线通信系统的标准制定提供支持,并早日取得相关领域的知识产权。在蜂窝通信系统中,由于无线信号的传输损耗,小区边缘的SINR Signal-to-Interference-plus-Noise-Ratio)会恶化。因此,位于小区边缘的用户的传输速率也会急剧下降。为了解决该问题,可以在小区边界处布设中继站(Relay Node, RN)。中继站中转基站和小区边缘用户之间传输的无线信号,以改善小区边缘用户的SINR,从而提高小区边缘用户的传输速率。通过引入中继站,可扩大基站的覆盖范围,提高系统通信容量。

1.2 中继站分类

LTE-AdvancedIEEE 802.16m的中继站可分为两大类:Type-I (non-transparent) Type-II (transparent)

首先,Type-I中继站需要广播自己的控制信息与公用参考信号,从用户终端(user equipmentUE)的角度来看,Type-I中断站就是一个基站。Type I中断站一般布置在距离基站(evolved Node-B, eNB)较远的位置,其主要目的是延伸eNB的覆盖范围,以服务小区边界的用户。与Type-I中继站相反,Type-II中断站不需要广播控制信号和公用参考信号,一般放置在离eNB较近的位置。用户通过同时接收Type-II中断站和eNB的信号,以实现多径分集(multipath diversity)或协同传输(cooperative transmission),从而提高系统效率。图1展示了Type-IType-II中继技术。 1展示了三种情况,在AB两种情况中,UE1UE2位于eNB的覆盖范围之外,因此,RS1RS2RS3属于Type-I中继站。AB两种情况不同之处在于AUE1eNB之间的信息经过两段传输路径,属于两跳中继 two-hop relay),而BUE2eNB之间的信号经过三段传输路径,属于多跳中继 multi-hop relay)。在情况C中,UE3位于eNB的覆盖范围内,它同时接收eNBRS4的信号,因此,RS4属于Type-II中继站。LTE-AdvancedIEEE 802.16j802.16m 802.16j的修订版本)采用的中继技术非常类似。考虑到系统的复杂度和传输时延,LTE-Advanced仅支持两跳中继,而IEEE 802.18j可支持三跳及以上的多跳中继。鉴于LTE的成熟性及LTE-Advanced未来的市场占有率,我们重点关注LTE-Advanced中的Type-I中继技术,其研究成果也适用于IEEE 802.16j多跳中继网络。我们不关注Type-II中继技术,是因为Type-I中继更为简单,并且可保持LTE-Advanced中继网络向下兼容LTE网络,实现LTE网络向LTE-Advanced中继网络的平滑过度,在短时间内Type-II中继难以实现。

1 Type-IType-II中继站

ISO OSIopen system interconnection)模型的角度出发,中继站又可分为L1L2以及L3三种中继站。L1中继站在L1layer 1)层实现,仅对接收到的信号做放大和转发。L1中继站只能实现物理层的部分功能,其优点是简单、时延小,其缺点是在放大有用信号的同时也放大了噪声。L2中继站除了完成L1层中继功能外,还可实现L2层的功能(MACRLC),可进行较复杂的操作(如HARQRRM)。L3中继站除可实现L2中继站的所有功能,还可完成L3层中继。L3中继站类似一个简单的eNB,可实现eNBbackhaul以外的所有功能。和eNB相比,L3中继站的传输功率更小,成本更低。就无线资源管理而言,集中式无线资源管理倾向于采用功能简单的L1L2中继站,分散式无线资源管理则倾向于采用功能强大的L2L3中继站。本文考虑L2L3中继站。

1. 3 LTE-Advanced中继网络系统架构

2LTE-Advanced中继网络的系统架构。该架构由四部分构成:ServicesEPCEvolved Packet Core network),E-UTRANEvolved-Universal Terrestrial Radio Access Network),User Equipment。与已有3GPP系统相比,User EquipmentServices两部分基本不变,主要的改动在E-UTRANEPC两层。接下来对各层做简要介绍,重点关注E-UTRAN

E-UTRANE-UTRANLTE-Advanced的无线接入网络,包括两类结点:eNBRN (将连接有RNeNB称为Donor eNBDeNB)。eNBUTRANRNCradio network controller)和Node-B的融合,这样可避免RNCNode-B之间传输信息时产生的时延。相邻eNB之间采用X2接口互联,构成网状网络。相邻eNB之间可直接传输信令数据和用户数据,因此可降低用户在相邻eNB之间切换时的切换时延。为了实现向下兼容,使LTE-Advanced系统支持传统没有中继站的存取构架,因此eNBUE之间的无线接口采用UMTS系统中定义的Uu接口。RNUE之间的无线接口与eNBUE间的无线接口的特性相同,故沿袭Uu接口。DeNBRN之间的无线接口,由于特性不同,因此定义一个新的无线接口Un来实现DeNBRN之间的信息传输。

2 LTE-Advanced中继网络系统架构

EPCEPCLTE-Advanced的核心网络,是由GPRS核心网络发展而来。EPC包括三类结点:MMEMobility Management Entity),S-GWServing-Gateway),P-GWPacket data network-Gateway)。MMELTE-Advanced无线接入网络的关键控制结点,其功能包括:用户的移动性管理,数据报文系统承载(EPS bearer)的建立与维护,注册(attach/ 解注册 detach), 3A机制(authenticationauthorizationaccounting)。S-GW的功能包括:对用户数据进行路由与转发;当用户在同一S-GW控制下的两个相邻eNB间或LTE与其它3GPP系统间切换时,S-GW是用户的移动锚结点(mobility anchor);同时也负责用户环境(UE context,包括EPS bearer的参数和网络内部的路由参数)的管理与存储;eNBMME之间的接口为S1-MME,当下行链路报文到达S-GW时,如果目标用户处于空闲状态,S-GW负责寻呼该用户。P-GW的主要功能包括:在用户与外部数据网络之间建立链接,执行policy enforcementpacket filtering、以及为计费提供支持,P-GWeNB之间的接口为S1-US-GWP-GW可在一个结点上合并实施,另外也可分成两个结点单独实施,前者可减少S-GWP-GW之间的传输延迟。一个UE可同时与多个S/P-GW建立链接,从而可访问多个PDN (Packet Data Network)

UEE-UTRAN以及EPC三层可建立IP链接,将这三层称为EPSEvolved Packet System)。Services:网络运营商可在EPS的基础上,提供基于IP技术的服务,比如,利用IMS (IP Multimedia Sub-system) 提供语音服务,另外也可通过IMS系统的Media Gateway与其它基于电路交换的PSTNISDN网络互联。

1.4 LTE-Advanced中继网络UnUu接口的资源划分方式

3 LTE-Advanced定义的帧结构

这里介绍UnUu接口的资源划分方式,即如何将时间-频率资源分配给Un (DeNB↔RN) Uu (RN↔UE) 接口。根据RN使用的频段,中继分为如下两种方式:

1inband(带内)中继:DeNB↔RNRN↔UE采用相同频段,Release-8 LTE)的UE可访问DeNB

2outband(带外)中继:DeNB↔RNRN↔UE采用不同频段,Release-8UE不能访问DeNB

无论是inband还是outband中继,DeNB↔RN都可采用与DeNB↔UE相同的频段。由于outband中继需要增加额外的频段,并且使LTE-Advanced不能向下兼容LTE,本项目关注inband中继,这也是3GPP关注的重点;关于outband中继,现在还缺乏相应的标准。

LTE-Advanced将上、下行链路的传输时间分成如图3所示的帧结构。每个帧(frame)的长度为10 ms,包含10个子帧(subframe)。一个子帧包含两个时隙(slot),每个时隙的长度为0.5 ms,由于7OFDM符号组成。在FDD方式中, 上、下传输各占10subframe;在TDD方式中,上、下传输共享10subframe,上、下传输采用不同的subframe,将上行传输采用的subframe称为ULuplinksubframe,将下行传输采用的subframe称为DL downlinksubframe

inband中继中,由于DeNB→RNRN→UE同时进行会对RN接收DeNB的信号造成干扰、UE→RNRN→DeNB同时进行会对RN接收UE的信号造成干扰,因此RN的收和发不能同时进行。在对UnUu接口进行资源划分时,应当遵行:

1DeNB→RNRN→UE采用时分方式(time division multiplexing)进行,即同时只有一个外于活动状态;

2UE→RNRN→DeNB采用时分方式进行。

具体到FDD

3DeNB→RNRN→UE均采用DL频段,但采用不同的subframe

> UE→RNRN→DeNB均采用UL频段,但采用不同的subframe

具体到TDD方式:

4DeNB→RNRN→UE采用不同的DL subframe

5UE→RNRN→DeNB采用不同的UL subframe

inband中继方式中,为了避免RN所属的UE错误地接收DeNB→RN的信号,将DeNB→RN的子帧配置为MBSFNmulticast broadcast single frequency network)子帧。

4 LTE-Advanced中继网络的等效架构

1.5 LTE-Advanced中继网络数据发送流程

不同于传统的移动通信网络,在LTE-Advanced中继网络中,数据可以由eNB直接发送给用户,也可经过中继站转发。本节介绍在中继站参与转发的情况下,LTE-Advanced中继网络下行(DeNB→RN→UE)数据发送流程。根据3GPP最新技术报告[8]DeNB→RN→UE数据发送有三种方案Alt1Alt2Alt3。在介绍这三种方案前,先介绍LTE-Advanced中继网络的等效架构。图2所示的LTE-Advanced中继网络架构可用图4所示的架构等效表示,后者有助于问题的描述。在LTE-Advanced网络中,中断站扮演双重角色:DeNB将中继站视为普通UE,而普通UE又将中继站视为普通基站(eNB)。图4就是对中继站双重角色的描述。在图4中,由于DeNB将中继站视为UE,所以中继站有相应的MMERelay-UE MME)和S/P-GWRelay-UE S/P-GW)。由于Relay-UE MME的存在,理论上LTE-Advanced可支持移动中继站,但考虑到中继站的特定用途及移动中继站给系统造成的复杂度的增加,目前LTE-Advanced暂不支持中继站的移动性。由于普通UEUser-UE)将中继站视为eNB,所以User-UE也有其对应的MMEUser-UE MME)和S/P-GWUser-UE S/P-GW)。Relay-UE MMERelay-UE S/P-GW)和User-UE MMEUser-UE S/P-GW)可以相同,也可以不同,这取决于中继站和User-UE欲连接的PDNpacket data network)。在图4中用蓝色方框表示中继站作为UE时的网络元素 network element),用棕红色方框表示中继站作为eNB时相应的网络元素,粉红色线表示User-UES1路径。

接下来介绍下行数据发送方案Alt1Alt1也称为“full L3 relay”方案,该方案对于DeNB是透明的。Alt1方案的发送流程可用图5描述,分为以下步骤:

1IP报文到达UES/P-GW (User-UE S/P-GW)User-UE P-GW根据报文过滤规则将收到的报文分类为不同的UE EPS bearer。由于User-UE P-GW知道当前为UE服务的中继站,所以User-UE P-GWUE EPS bearer映射成对应的RN EPS bearer,并将其存储在UE EPS bearer的报文头的DS域。最后,User-UE S-GWUE EPS bearer封装(encapsulate)放入对应的GTP tunnel UE EPS bearer GTP Tunnel)发送给为UE服务的中继站 RN

2)根据路由规则,上述UE EPS bearer GTP tunnel报文到达RNS/P-GWRelay-UE S/P-GW)。根据UE EPS bearer GTP tunnel报文的DS域存储的RN EPS bearerRelay-UE P-GWUE EPS bearer映射为相应的RN EPS bearer。接着Relay-UE P-GW将不同用户的具有相同RN EPS bearer的多个UE EPS bearer GTP Tunnel报文放在一起,进行二次封装,放入相应的GTP tunnel RN EPS bearer GTP tunnel)。Relay-UE S-GWRN EPS bearer GTP tunnel报文转发到RN所属的DeNB

3)上述RN EPS bearer GTP tunnel报文到达DeNBDeNBRN EPS bearer映射到相应的RN radio bearer后将报文(RN radio bearer GTP tunnel)发送给RN

4RN对收到的RN radio bearer GTP tunnel报文解封(decapsulate)后,得到不同用户的UE EPS bearer GTP tunnel报文,然后将UE EPS bearer映射到相应的UE radio bearer,最后将UE radio bearer GTP tunnel报文发送给UE

5 LTE-Advanced中继网络的下行数据发送流程:方案Alt1

Alt3方案是Alt1的增强型方案。Alt3方案将Relay-UE S/P-GW的功能融合到DeNBUser-UE S/P-GW发送给RNGTP tunnel报文不用经过第二个S/P-GW,因此路由得到优化、传输时延减少。

6 LTE-Advanced中继网络的下行数据发送流程:方案Alt2

Alt2方案又称为“proxy S1/X2”方案,该方案为DeNB增加home eNB GW(家庭eNB网关)功能,从而让DeNB成为RNS1接口和X2接口的代理。Alt2方案的下行数据发送流程如图6所示,分为以下步骤:

1IP报文到达User-UE S/P-GWUser-UE P-GW根据文过虑规则将该报文映射到UE EPS bearer,然后将UE EPS bearer封装放入GTP tunnel UE EPS bearer GTP tunnel)发送给DeNB。注意,这里的目标是DeNB,不是RN,因为UE S/P-GW不知道目标UE是由RN提供无线接入服务,它只知道该UE所属的DeNB

2)上述UE EPS bearer GTP tunnel报文到达DeNBDeNBUE EPS bearer映射到RN radio bearer,然后将收到的报文发送给RN。在这一过程中,同一RN服务的不同用户,如果他们的UE EPS bearer具有相同的QoS,则会被映射到同一RN radio bearer。注意,DeNB没有对收到的报文进行二次封装;

3RN将收到的UE EPS bearer GTP tunnel报文的UE EPS bearer映射到UE radio bearer,然后将收到的报文发送到目标UE

三种方案的上行数据发送流程与下行流程相反,此处略。后面我们将会看到,Alt2方案比Alt1Alt3方案更容易实施下行链路流量控制。

1.6 LTE-Advanced中继网络面临的挑战

如前所述,中继站可以扩大eNB的覆盖范围、提升小区边缘用户的吞吐量,这是中继站的优势。同时,中继站也给LTE-Advanced网络引入一些严峻的挑战。这些挑战可分成两大类:下行链路(DeNB→RN→UE)流量控制(flow control)及切换。

首先介绍中继站给下行链路流量控制造成的挑战。在数据通信中,为了保证报文的有序、可靠传输,同时提高链路的利用率以及防止接收结点缓存溢出(buffer overflow),流量控制必不可少。前面介绍了LTE-Advanced中继网络中三种数据发送方案Alt1Alt2Alt3。在Alt1Alt3中,下行数据的传输路径为User-UE S/P-GW→Relay-UE S/P-GW→DeNB→RN→UE,由于User-UE S/P-GW→Relay-UE S/P-GW→DeNB为两段有线链路,在知道链路的传输速率、RTT round trip time)、接收结点的缓存大小(buffer size)的前提下,利用有线网络中已有的流量控制机制,可很容易地进行有效的流量控制。在Alt2方案中,下行数据通过的路径为User-UE S/P-GW→DeNB→RN→UE,同理,User-UE S/P-GW→DeNB的流量控制不是难题。因此,在Alt1Alt2Alt3三种方案中,流量控制的关键在路径 DeNB→RN→UE。假定RNnUE提供无线接入服务。要对DeNB→RN→UE实施有效的流量控制,必须满足:

1DeNB知道DeNB→RN的信道状态。这一点可以实现,且难度不大。RN为固定结点,并且RNDeNB之间一般采用视距传播,因而DeNB→RN的信道状态不会变化太快。通过RN的动态反馈,DeNB可了解DeNB→RN的信道状态,这一过程不会造成太大的信令开销。

2DeNB知道RN→UEi的信道状态。由于UE的移动性,相较于DeNB→RN的信道,RN→ 的信道状态变化很快,需要频繁地将RN→的信道状态报告给RN,后者再将该信息反馈给DeNB。由于LTE-Advanced中继网络为Un接口分配的传输时隙很少,RN频繁大量地向DeNB传递RN→UE的信道状态信息可能造成Un上行链路的拥塞。另外,由于RN→的信道状态变化太快,再加上Un接口分得的传输时隙少,导致DeNB获得的RN→的信道状态信息可能为已过时的信息。

3DeNB知道RN为所有UE分配的缓存空间的总的大小。

4DeNB知道RN为单个用户UEi分配的缓存空间的大小。

5DeNB可以控制通过Un下行链路发送给RNUEi的报文数量。这一点,Alt2方案可实现,但Alt1Alt3方案不能实现。在Alt1Alt3方案中,Relay-UE S/P-GWUE EPS bearer GTP tunnel报文做二次封装,不同UEUE EPS bearer GTP tunnel报文会被封装放入相同的RN EPS bearer GTP tunnel,如果这些报文具有相同的RN EPS bearerAlt1Alt3方案对于DeNB来说是透明的,DeNB只是对收到的RN EPS bearer GTP tunnel报文做RN EPS bearerRN radio bearer的映射,然后转发RN EPS bearer GTP tunnel报文。所以在Alt1Alt3方案中,DeNB无法控制发送到RN的单个UE的报文数量,它只能对发往RN的所有UE的报文数量做等比例的流量控制。Alt2方案中,发送到DeNBUE EPS bearer GTP tunnel报文没有被二次封装,所以DeNB可以对发往RN的单个UEUE EPS bearer GTP tunnel报文做流量控制。

在现阶段,3GPP已确定必须实施DeNB→RN→UE的流量控制,但尚未确定具体的流量控制方案。因此,本人拟开展的研究可为日后制定DeNB→RN→UE的流量控制方案提供技术支持,另外也可提前取得相关领域的知识产权。

7 LTE-Advanced中继网络切换过程中的数据转发流程

接下来介绍中继站对LTE-Advanced网络造成的切换方面的挑战。引入中继站后,UE在切换时可能发生两方面的问题:

1)掉话 (call dropping) 概率增加。一个DeNB的覆盖范围内可能配置有多个RN。在没有中继站的情况下,当UE在该DeNB的覆盖范围内移动时,不会发生切换;但是当引入RN后,UE在移动的过程中,可能在RNRN之间切换或RNDeNB之间切换,随着切换次数的增加,发生call dropping的概率也相应增加。实时业务 (如语音和视频) call dropping非常敏感。为了降低实时业务的掉话概率,各个RNDeNB应为实时业务预留足够的信道资源。

2)切换时延增加。在LTE-Advanced网络中,当UE发生切换时,UE的旧服务小区需要将其缓存的UE的报文转发到UE的新小区,由于中继站的存在,旧小区转发报文到新小区所需的时间可能增加。以图7所示情况为例来说明,假定某UERN11切换到RN21。若采用报文传递方案Alt1Alt3,则RN11转发UE的报文到RN21时所采用的路径为RN11→DeNB1→S-GW1→DeNB2→RN21,共四步;如果采用方案Alt2,则相应的转发路径为RN11→DeNB1→DeNB2→RN21,共三步;如果没有中继站的存在,则相应的转发路径为DeNB1→DeNB2,只有一步。注意DeNB1↔DeNB2是采用有线链路构成的X2接口,其链路传输速率非常快;但RN11↔DeNB1RN21↔DeNB2是采用无线链路构成的Un接口,且传输时隙很少,因此RN11→DeNB1DeNB2→RN21的传输时延很大。在图7所示切换中,当UERN11RN21L1L2L3切换完成后,还需等待其缓存在RN11的报文被转发到RN21,整个切换过程才算完成。报文转发时间与RN11缓存的UE的报文数量有关。因此,在LTE-Advanced中继网络中,切换时延会增加。

2 国内外研究现状

人们对中继传输(relay transmission)的研究已有很长时间,最早可以追溯到1979年。在此对最近几年发表的研究成果作简要介绍。《A rateless coding based multi-relay cooperative transmission scheme for cognitive radio networks》(X. J. Wang, W. Chen, and Z. G. Cao)针对感知无线网络,提出一种基于rateless coding的多中继协同传输(multi-relay cooperative transmission)方案。在该方案中,一个源结点利用多个中继结点向目标结点传输数据。《A relay assisted cooperative transmission protocol for wireless multiple access systems》(Z. G. Ding, K. K. Leung, D. L. Goeckel, and D. Towsley)针对无线多址接入系统(如蜂窝通信系统),提出一个具有高频效率的协同传输方案,该方案利用多个中继结点协助一个源结点,从而实现虚拟MIMO的效果。《Amplify-and-forward cooperative transmission with multiple relays using phase feedback》(D. W. Lee, Y. S. Jung, and J. H. Lee)、《High spectral efficiency of multiple-relays assisted amplify-and-forward cooperative transmissions under spatial reuse》(A. Agustin and J. Vidal)分析了在缺乏全局信道状态信息的条件下,采用多个L1中继结点进行协同传输的性能。《On the distortion exponents of layered broadcast transmission in multi-relay cooperative networks》(J. Wang, J. Liang, and S. Muhaidat)分析了离散模拟高斯源在多中继协同网络 multi-relay cooperative network)中传输时的损耗指数(distortion exponent)。《The relay selection and transmission trade-off in cooperative communication systems》(V. Shah, N. B. Mehta, and R. Yim)分析了在协同通信系统中,中继结点的选择及数据传输问题,考虑的性能指标为吞吐量及功率开销。

综观上述研究成果,不难发现它们的共同特点:(1)多中继环境,即一个UE有多个中继结点可利用;(2)中继结点为Type II中继结点;(3)网络中的空闲移动终端都可作为中继结点,即网络中存在大量的中继结点;(4)从信息论角度出发,分析性能极限。对于LTE-Advanced中继网络而言,已有研究很难派上用场,因为:(1LTE-Advanced中继网络中的中继站主要是Type I类型,至少在LTE-Advanced商用的最初几年是这样;(2LTE-Advanced 中继网络中,一个UE只有一个中继站为其中转数据,这些中继站是专用结点,并非普通移动终端,与移动终端的数量相比,中继站的数量非常有限,很难形成multi-relay的环境,即LTE-Advanced中继网络中的中继站不是帮助UE形成虚拟MIMO,另外功率开销也不是中继站关心的主要问题。

过渡金属的晶体结构与相变机理的理论研究

*(物理学院)

在计算和研究固体的晶格结构,电子能带,热力学以及动力学等性质中,以量子力学第一性原理为基础的密度泛函理论取得了辉煌卓越的成就,但是诸如固体相变机理等基础性的问题仍然需要深入研究。具有唯像特征的朗道相变理论尚不能给出准确预测相变温度的定量方法。

以晶格为面心立方(fcc)结构的金属镍为例,人们发现采用DAC方法测量得到高压条件下的熔化温度Tm低于预期,其熔化曲线的斜率dTm/dp = 10 K/GPa,明显小于周期表中邻近的铜元素 dTm/dp = 18 K/GPa。理论方面,Frank1952年针对液体的过冷现象提出了一种比bccfcchcp结构更为紧密的二十面体原子密排团簇结构。这种五重对称结构与过渡金属的d轨道匹配,虽然不能形成五重对称的晶体结构,但有利于金属液体能量的降低。Ross等详细地分析了部分过渡金属的熔化温度,认为在液相中的二十面体局域结构能够导致高压下金属镍的熔化温度较低。已有的中子和X射线衍射实验以及采用密度泛函的分子动力学(DFT-MD)模拟计算都证实,在液态金属镍的内部,存在形成二十面体对称的短程力。在分子动力学研究方面,Koci等人采用镶嵌原子方法(EAM)拟合计算得到镍的分析势函数,得到高压条件下的熔化温度明显比实验结果高,模拟计算的熔化曲线斜率dTm/dp与铜的相近。原子对分析势函数,不能描述具有未满d电子轨道原子间切向位移对系统能量的影响,是分子动力学计算不能准确地给出高压下金属镍的熔化曲线的根本原因。Ross等人采用一种自由能模型方法,通过拟合实验的熔化曲线,分析了相变过程中的自由能和熵,认为低压下的金属镍的液体中只有0.01%的二十面体团簇结构,而在114 GPa的高压下金属镍液体中的二十面体团簇结构高达6.6%。但是Ross等人也承认,其自由能模型方法只具有定性的解释性意义,不能对实验结果进行预测。利用量子力学的第一性原理揭示晶体的固体-液体以及铁磁-顺磁相变机理,并准确计算得到其熔化温度Tm和居里温度Tc是长期受到关注的课题。

通过改进原子间的分析势函数,是分子动力学模拟能够较好地给出高压下金属固体的熔化曲线的关键。但是准确的势函数,必须精确地考虑原子间的多体相互作用,这必将导致其分析势函数的复杂程度增加。量子分子动力学模拟可以直接利用量子力学的能量计算结果,不需要构造分析势函数,但是计算量通常都非常大。另外,分子动力学模拟往往将系统相变的微观机理掩盖在大量原子分子运动的统计结果中,从而失去其直观的物理图像。

在项目调研中,课题小组利用密度泛函理论方法计算考察金属镍的晶格结构与能量的关系,优化得到镍从FCC变化为BCC结构过程的路径能量曲线,如图所示。其中的虚线为自旋极化的铁磁结构路径曲线,实线为不具有铁磁结构的路径曲线。可以看出,无论采取那一种磁性结构,简单立方(SC)结构均是路径曲线中能量最高的过渡态结构。对比计算显示,SC的铁磁结构比FCC的非铁磁结构高出的能量,等于1842 K温度时的晶格振动能量,接近于常压下实测的熔化温度Tm=1726 K。另外,FCC的非铁磁结构比其铁磁结构高出的能量等于687 K时的晶格振动能量,这与实测的居里温度TC=631K接近。表明金属固体的晶格结构及其能量与固体的相变存在内在的逻辑联系。

可以设想,镍的晶格在低温时为铁磁结构,当随温度增加的振动能量足以使晶格振动与电子能带耦合时,晶格的铁磁结构就会转变为非铁磁的顺磁结构,但是不排除晶格仍然具有瞬时的铁磁结构。晶格结构伴随晶格的振动而具有涨落,涨落的强度随温度升高而逐渐增强,但是晶格结构的统计平均并无太大的变化。从路径能量曲线判断,当增加的振动能量使体系能量高于铁磁的SC结构能量时,晶格结构的涨落迅速增大,系统在FCCBCC结构之间可逆变化,因此固相晶体的结构将因此而解体并且变化为液相。与分子动力学模拟方法相对应,这种通过优化计算体系的能量变化路径,比较路径能量与振动能量的关系而得到体系熔化温度的方法,不妨可以称为能量路径分析的静力学方法。计算表明这种方法可以推广到高压的情况,得到的熔化温度比Koci等人的分子动力学模拟更接近实验结果。

这种能量路径分析的方法能够阐述体系振动能量随温度升高对体系晶格结构的影响,给出直观描述固-液相变机理的方法,展示直接预测熔化温度的可能性,最优能量路径对构造准确的分子势能函数,改进分子动力学的模拟结果具有实际的指导意义。

为将这种能量路径分析的静力学方法推广到其它金属固体材料的研究,本项目拟选取钒,钛,铁,钴等具有代表性的过渡金属,通过分析晶格变化的最优能量路径并与晶格的振动能量进行比较,直观地研究体系的固-液相变机理,计算高压下的熔化温度曲线。

铁和镍均具有铁磁结构,但是铁的熔化曲线比镍的复杂得多。钒具有镍相似的熔化曲线,相对简单,但是不具有铁磁结构。因此这些元素的固-液相变机理具有代表性。铁和镍是地核的主要组成元素,其在高温高压条件下的热力学性质,有助于解释和预测地球内部运动对地磁场,板块构造,地震以及火山爆发等现象的影响,对于认识地球的形成和进化过程具有重要的科学意义。钒作为气冷快速反应堆核心的外包衬材料,其在正常和极端条件下的物理化学性质,对于了解反应堆内核与外包衬之间的兼容性具有实际意义。

光纤参量放大的特性分析及其应用技术研究

朱宏娜* (物理学院)

1 研究意义

光纤通信系统因其宽带高速的特性构成了现代通信网络中的主干之一。超长距离密集波分复用传输技术(ULHDWDM)能比较充分地利用光纤的传输带宽,一直是骨干网配置的首选方案之一。它可以简化骨干传输网结构,减少昂贵的光电再生器件的使用,同时提供大容量带宽。

ULHDWDM技术面临光放大器ASE噪声、光纤色散和非线性损伤积累、严重色散不均衡等诸多问题,需要多种先进的技术手段作为支撑,研发新一代高速超长距离密集波分复用光纤通信骨干网的核心技术包括光放大技术、编码调制技术、色散补偿技术、动态均衡技术、前向纠错技术、光孤子技术等。

具有宽带宽、高增益水平和饱和输出功率、低噪声系数以及多路信号同时放大能力的光放大器在光传输系统扩容和增加传输距离方面具有巨大的优势和潜力,一直是光通信领域研究的热点,由于光放大技术具有对光信号进行实时、在线、宽带、高增益、低噪声、低功耗以及波长、速率和调制方式透明的直接放大功能,理所当然的成为新一代光纤通信系统中不可缺少的关键技术。

目前已研究发展出来的光纤光放大器有掺铒光纤放大器(EDFA),光纤拉曼放大器(FRA)和光纤参量放大器(OPA)。其中EDFA90年代得到飞速发展,并在光纤通信系统中得到了广泛应用。但是随着通信传输速率的上升,对光放大器提出了越来越高的要求。在将来,通信波段渴望扩展到从1200nm1700nm的宽广范围内,这是单个EDFA所无法完成的。

近年来基于光纤非线性效应的技术得到了广泛的研究,其中FRA由于其超宽的增益带宽和在线放大的能力,已经逐步运用于光通信系统中,但也还存在着泵浦要求复杂、增益不高的问题。因此,基于三阶非线性效应——四波混频(FWM)技术的OPA成为了人们关注的焦点。

OPA具有可对任意波长的信号进行放大、对信号的比特率和调制格式完全透明、大带宽、高相敏特性、产生闲频带等显著优点,被认为是最适合未来超长距离密集波分复用系统和全光网络的最具前途的光放大技术之一。OPA特别适合光信号集中放大和全光信号处理。它可以提供比FRAEDFA更宽更平坦的增益带宽,OPA内在高效的四波混频依赖于相互作用各光波之间的相对相位关系,即需要满足相位匹配条件,因此相位敏感的OPAASE噪声而言,仅仅放大与信号具有相同相位的成分而衰减与信号反向的成分,这一特性使OPA具有许多潜在用途,如脉冲整形,量子噪声抑制,孤子相互作用等;基于克尔效应的OPA其固有的增益响应时间在数飞秒量级,这使OPA可以很好的用于超快全光处理、归零码生成、光时分复用、透明的全光波长转换、全光限幅、全光抽样,全光再生等[5-8]

2 国内外研究现状分析

近年来,OPA在国内外得到了广泛的关注。早期OPA的研究是利用多模光纤进行的,但是由于能实现相位匹配的光纤长度有限,非线性互作用长度小,不能得到有效的信号增益。

目前,OPA的设计已经发展了多种高效技术,主要有准相位匹配(Quasi-Phase Matching)、相位调制泵浦光源、双泵浦、采用高非线性光纤(HNLF)或光子晶体光纤(PCF)、采用环形结构、层叠结构、近零色散波长泵浦、零色散波长分布、偏振分集等,以达到提高峰值增益、拓展带宽、降低偏振灵敏度的目的。

2.1 峰值增益的提高

2003年,Kenneth K.Y.Wong等人则进一步采用两个相位调制器级联调制泵浦光,两段不同的高非线性光纤进行零色散波长发布,特别还在两段光纤之间加光隔离器以提高布里渊散射阈值等技术,实现30dB增益带宽达50nm,开关增益峰值甚至高达60dB2006年,Thomas Torounidis等人采用高达1.9W的泵浦源、三段不同的高非线性光纤等方法进一步将开关峰值增益提高到70dB2007年,他们又利用波长1560.5nm、功率4W的连续光泵浦非线性系数为25km-1W-1100mHNLF,实现了100nm增益带宽、11.5dB的平均增益。在这项实验中,增益谱较为平坦,成功的将增益波动控制在2dB以内。

2.2 带宽的拓展

提高OPA的增益带宽是密集波分复用系统的关键技术。2004年,Bell-Lab发表了采用连续光泵浦的OPA,采用过双泵浦结构,增益超过了30dB,增益平坦带宽为41.5nm2007年,J.D.Marconi等人报道了一种双泵浦光纤参量放大器,其3dB带宽为近100nm;同年,R.Jiang等人发表的双泵浦光纤参量放大器,使用了200m长的HNLF,其3dB带宽为50.28nm,带宽内增益高于40dB

2.3 光纤参量放大技术在全光信号处理中的应用

1、波长变换

波长变换在光网络中是一个重要的环节,它可以将某个波长的信号复制到另一个波长上以实现波长路由、解复用等功能。使用FWM效应能够将某个波长上的输入的信号转移到所生成的闲频光上,从而实现波长变换。光纤参量放大进行波长变换时,具有转换效率高、比特率透明、转换间距大等特点,非常适合在DWDM系统中应用。

2008年,J.M.Chavez Boggio利用相位调制器、偏振控制器、带通滤波器及两级EDFA放大,组成传统的单泵浦光纤参量放大器装置,实现波长转换带宽730nm,在1820nm达到峰值增益,平均增益40dB

2、光再生

随着通信网中信道传输速率的增加,由于XPMSRSSPM等非线性效应产生的抖动和信道间的串音、ASE噪声、PMD等限制了传输距离和网络规模。因此需要再放大、再整形、再定时(3R光再生)来突破这一限制。Y.k.Su等人用光纤参量放大器实现信号放大和整形,而用锁相环实现再定时,并利用光纤参量放大器在放大的同时具有波长转换的功能特点,将再生的数据波长转换了15 nm。与其它将光学门和时钟恢复分两个分立模块的3R再生方案相比,它具有结构新颍、简单的优点,并在进行3R再生的同时实现了波长转换。Yu.C等人用数据信号泵浦的光纤参量放大器实现了3R再生。

国内方面,目前对光纤参量放大技术进行研究的主要有华中科技大学,天津大学,北京邮电大学,清华大学,上海交通大学,北京交通大学,西南交通大学,中国科学院上海光学精密机械研究所等。其中北京邮电大学的杨伯君小组主要在光子晶体光纤的参量放大的波长变换方面进行了有关研究。天津大学的于晋龙小组在光纤参量放大的码型变换和波长变换方面,北京交通大学的简水生小组和华中科技大学的黄德修、孙军辉小组,上海交通大学的胡卫生,姜淳小组,杭州电子科技大学的李齐良等。

高功率微波脉冲与带EBG结构的计算机机箱的耦合

及其并行计算研究

*(物理学院)

高功率微波(High power microwave,简称HPM)是随着脉冲功率技术的实用化而迅速发展起来的,它是指峰值功率在100MW以上,工作频率为1300GHz的电磁波。高功率微波极大地促进了高功率雷达,超级干扰机,等离子物理和高功率微波武器等的发展。而且,它在新能源开发、功率无线传输、微波探测、受控核聚变等离子体加热、材料改性和新材料研制、环境污染治理和废物处理等众多领域有着迫切的应用需求。

高功率微波主要应用在电子战中。它对电子设备或电气装置的破坏效应主要包括收集、耦合和破坏三个过程。对于耦合过程,高功率微波能量能够通过前门耦合后门耦合进入电子系统。近年来研究较多的是后门耦合,是指能量通过机壳的缝隙或者小孔泄漏到系统中。高功率微波脉冲与计算机机箱的耦合属于后门耦合。

脉冲对小孔耦合的研究是脉冲与计算机机箱耦合研究的基础。对于电磁孔缝耦合问题,1944年,H.A.Bethe提出了小孔衍射理论,对无限大导体平面上的小孔耦合的研究开始了对此问题的探索。目前,国际国内对脉冲与小孔耦合的基础性研究较多。已有多种不同的数值计算方法用来分析这个问题,包括高阶模式的传输线模型、多层快速多极子算法、有限元法(FEM)与矩量法(MoM)相结合的混合方法、有限元法、矩量法、傅立叶变换及模式匹配法、电路法和时域有限差分(FDTD)法等等。特别是时域有限差分法,由于它是解决瞬态电磁场问题的主要数值方法,而且具有模拟复杂电磁结构的能力,在解决瞬态电磁波入射以及复杂目标的电磁透入问题方面具有一定的优越性。因此在高功率微波脉冲与带孔缝腔体的耦合研究中得到了广泛的应用。王建国等在瞬态电磁场与带孔缝腔体的耦合方面做了大量的研究。《孔洞厚度对高功率微波脉冲耦合的影响》(王建国等)分析了高功率微波脉冲与有限厚度孔洞的耦合过程,得出了孔洞厚度对高功率微波脉冲耦合的一些有用结果。《微波脉冲与圆柱腔体耦合的时域有限差分模拟》(王建国等)讨论了微波脉冲与腔体上孔洞线性耦合的物理过程,计算了不同大小和位置孔洞的耦合过程,分析了耦合对孔洞大小和入射场偏振方向的依赖关系。《高功率微波与带孔洞腔体非线性耦合的理论研究》(王建国等)研究了高功率微波束与腔体非线性耦合的过程,考虑了单个高功率微波入射情形以及连续高功率微波入射情形。《微波脉冲孔缝线性耦合的数值与实验研究》(王建国等)给出了部分数值模拟结果和初步的实验结果。分析了耦合对入射波载频、入射场偏振方向和孔缝尺寸的依赖关系,得出了共振效应和增强效应等规律,同时给出了共振发生的条件。《微波孔缝线性耦合函数研究》(王建国等)给出了线性耦合的物理基础,定义了耦合函数,并导出了耦合函数随入射电场极化方向变化的公式。另外,人们还对电磁孔缝耦合问题进行了多方面的研究。范颖鹏等计算了圆形孔阵、方形孔阵、蜂巢形孔阵以及哑铃形孔阵对屏蔽效应的影响,分析比较了各种不同孔间距对屏蔽效应的影响。王嘉伟等研究了线极化波和圆极化波的孔缝耦合效应,研究表明圆极化波更容易耦合进入目标腔体。李锐等研究了微波脉冲与带介质孔缝矩形腔体的耦合过程,对发生共振的公式进行了拟合,得出了微波脉冲与带介质孔缝矩形腔体耦合的共振条件。柴焱杰等研究了高空核爆电磁脉冲与双层金属腔体的耦合过程,所得结论有利于双层金属腔体的电磁防护设计。

尽管对脉冲与小孔耦合的研究较多,但当前对于脉冲与计算机机箱的耦合研究,所见的文献不多。一般采用FDTD方法进行研究。Ya Jun Wang 等分析了瞬态平面波通过PC机前面板的电磁耦合过程。陈修桥等对具有一定矩形孔缝的计算机机箱的电磁脉冲耦合进行了模拟仿真。陈伟华等通过分析计算机机箱内的电磁场随时间的变化曲线和耦合系数随频率的变化曲线,得到电磁脉冲对计算机机箱的耦合规律。周姗等比较了入射场极化方式不同的情况下机箱的屏蔽特性。作者自2005年研究了不同入射方向电磁脉冲对计算机机箱的耦合规律以来,进行了一系列对机箱电磁耦合的研究,得到了有价值的结论,这些前期工作对相关项目的提出奠定了基础。

计算机的屏蔽及防护引入了电磁加固的概念,特别是对于军用计算机。国外在20 世纪60 年代就十分注重军用加固计算机的发展, 我国开始于20 世纪80 年代, 现在加固计算机基本上在军事装备中形成主流。加固计算机能够抵抗恶劣气候、力学、电磁、生物、防信息泄漏和辐射等环境。其核心设计包括热设计,防护设计以及电磁兼容性设计。电磁兼容设计的目标是提高计算机的抗干扰能力并减少本身的电磁辐射。电磁兼容设计的主要手段是切断干扰性电磁波的传输通道。干扰性电磁波进出计算机的传输方式有三类:辐射、传导和耦合。切断干扰性电磁波耦合进计算机是电磁兼容设计的一个重要方面。

脉冲与计算机机箱耦合,由于脉冲频谱丰富,耦合进机箱的信号,某些频率处的强度大,会摧毁机箱中的电子元件。基于电磁加固的概念,作者考虑采用电磁带隙EBGElectromagnetic Band – gap)结构应用于机箱来防止这种破坏。电磁带隙结构,源于光子晶体结构,PBG( Photonic Band - gap)结构。它们都属于由一种媒质在另一种媒质中周期排列所形成的人造结构,其周期为波长的数量级。PBG结构最早由Yablonovitch提出,该结构具有灵活控制电磁波在其中传播的特性,即具有带隙和带通特性。但是由于制造精度的限制, 在光领域中很难使用该结构。根据Maxwell方程组的缩放特性, PBG结构所具有的特性也适用于微波和毫米波领域。因此光子晶体结构在微波和毫米波领域得到了广泛的应用,并最开始使用EBG这个术语。EBG结构根据其维数可以分为一维、二维和三维结构,根据其结构特性主要有接地板缺陷型(DGS,Defected Ground Structure) 、基底打孔型、高阻抗表面型、共面紧凑式(UC, unip lanar compact) EBG结构四种(如图1)。

1 EBG结构

目前,对EBG结构电磁特性的分析研究已有不少文献,而且也应用于很多领域。Dusan A. Nesic等研究了具有三杂散禁带抑制的EBG带阻滤波器,在无限周期结构的已知理论基础上,解析理论被发展,用EBG单元级联设计了相应的EBG带阻滤波器。N. Delhote等将二维和三维的电磁带隙结构应用于谐振器,为了获得满意的谐振频率和品质因素,EBG结构的几何尺寸和形状被设计和优化。Chih-Ming Lin等采用微带EBG单元,提出并设计了一种新的功率分配器/合成器,以抑制谐波。新的电路配置能提供小的电路尺寸且抑制两个谐波。Jaewon Choi[25]提出一种新的电磁带隙结构用于功率放大器以减小尺寸和线性度的改善。Ahmad Kanso[26]提出一种金属EBG双频天线作为反射面天线的馈源,EBG天线在两个频带有相同的相位中心。Fan Yang等用FDTD方法研究了蘑菇型的EBG用于天线阵列的耦合设计,它在带隙内抑制表面波的特性由近场的电磁波分布展现,EBG结构插入天线阵列元之间能减少天线元间的耦合,从而改善天线方向图。Jinwoo Choie等人[28]研究了一种在混合信号系统中有效的噪声隔离和抑制方法,即使用基于电源分布网络的交流阻抗电磁带隙结构,它能在高频提供更好的噪声隔离和抑制。尽管EBG结构已有很多应用,但目前没有看到将EBG结构用于计算机机箱的文献。

在模拟高功率微波脉冲与计算机机箱耦合时,必然遇到模拟窄缝的问题,而且当EBG结构的周期变大时,所需的存储量和计算时间都非常巨大,是单机无法承受的。解决的途径之一就是采用多机进行并行计算来解决这个瓶颈问题。《微波脉冲窄缝耦合的数值并行计算》(刘杰等)研究微波脉冲窄缝耦合的数值并行计算。给出了在Alphu工作站上的测试结果。但还没有将高功率微波脉冲与计算机机箱耦合的效应用并行计算仿真的文献。

综上所述,电磁孔缝耦合问题自1944年开始研究以来,国内外都进行了大量的研究,特别是国内的研究进行得如火如荼。但对于电磁脉冲与计算机机箱的耦合方面的研究尚处于初级阶段。而从公开发表的国内外文献来看,目前还没有将EBG结构用于计算机机箱并对电磁脉冲与该机箱耦合的效应进行研究的报道。本项目将从电磁加固思想出发,研究高功率微波脉冲与带EBG结构的计算机机箱的耦合,提出一种新型的共面EBG结构用于计算机机箱,并进行实验验证。针对EBG结构周期性地用于计算机机箱将耗费大量计算时间和占用大量计算空间的难点,利用并行的时域全波模拟方法,实现带EBG结构计算机机箱的优化。根据高功率微波的应用特点和我们的国防迫切需要解决的关键科技问题来看,对高功率微波脉冲与带电磁带隙(EBG)结构的计算机机箱的耦合规律及其并行计算进行研究具有重要的战略意义。其研究成果将积极地推动高功率微波耦合技术的发展及其在电磁兼容方面的重大进展,广泛应用于军事和民用领域。

囚禁离子和电子系统中的量子相干调控

*(物理学院)

量子计算机是一类基于量子力学原理进行高速逻辑运算、存储及处理量子信息的物理装置,一旦实现必将为人类生产、生活带来巨大的变革。然而,建造一台真正意义上的量子计算机是科学家面临的一个巨大挑战。一个瓶颈问题是量子计算机应该包含足够多的、相互耦合的、可快速操控的量子比特(Qubit)。迄今为止,实验上最多只能实现8个粒子(量子比特)的相干操作,这是远远达不到要求的。例如,分解一个200位的大数,需要3500个量子比特;若考虑到纠错,则至少需要100,000个量子比特。

研究集成化离子阱和液氦上囚禁电子的可扩展量子计算,为解决上述瓶颈问题作出一定的贡献。目前的微加工技术已经能把单个离子阱的尺寸做到微米量级以下,因而囚禁在不同离子阱中的离子间距可非常小,进而可直接利用离子之间的库仑作用来传递量子信息并有希望实现大规模量子计算。

国内外研究现状

迄今为止,科学家们已经提几种物理系统来建造量子计算机,如囚禁离子、腔QED、超导约瑟夫森结、核磁共振、耦合量子点、以及液氦上电子等。在这些物理系统中,囚禁离子被认为是最有希望实现未来量子计算机的一种。这是因为囚禁离子具有相当长的退相干时间,便于操作,数据容易读出等优点。在过去十年里,囚禁离子量子计算取得了一系列里程碑式的成果,如率先获得了8个粒子的纠缠。通常,囚禁离子的量子计算是在单个离子阱中实施的,如Cirac-ZollerMØlmer-SØrensen模型。利用囚禁离子的两个长寿命内态作为量子比特,离子共同的质心振动模作为传递信息的数据总线。通过激光操可以实施量子比特与这种数据总线之间的量子信息转移,进而实现量子计算。然而,上述单离子阱模型很难实现大规模的量子计算。这是因为随作囚禁离子数目的增多离子之间的相对振动模所导致的噪音也显著增强。因此如何实施大规模量子计算成为人们迫切需解决的一个瓶颈问题。最近,Innsbruck NIST的研究组在实验上演示了囚禁在两个离子阱中的离子振动态耦合。

另一方面,液氦表面上囚禁电子因具有较好的可扩展性,也被提出用于量子计算。事实上,早在七十年代人们在实验上就已发现液氦上电子可以表现出与天然原子类似的光谱性质。众所周知,原子是由原子核与核外电子所组成的。液氦上电子会受到它在液氦中所感应的镜像电荷的束缚。与天然原子类比,这一镜像电荷可视为原子核。另一方面,因Pauli不相溶原理,电子被阻止穿透液氦表面而进入到液氦内部,从而使电子的波函数不致于渗透到原子核中。结合上述两方面的作用,液氦上电子就形成了一种人工原子,而展现出许多与天然原子类似的性质。 1999年,贝尔实验室的Platzman等人首次提出这种人工原子可用于实施量子计算(人工原子的两个最低能级作为Qubits,电子之间的库仑相互作用实现Qubits的耦合)。随后,伦敦大学的液氦上电子课题组在实验上实现了单电子的囚禁并证实了液上电子量子比特具有较长的相干时间,为液氦上电子系统量子计算提供了有力实验支持。

基于数字水印的新闻照片防伪认证模型及其关键技术研究

相关推荐