本发明涉及捕获场景的图像,并且具体地但非排他性地涉及捕获提供场景的三维表示的图像。
背景技术:
近年来,图像和视频应用的种类和范围大幅增加,其中持续开发并引入利用和消耗视频的新服务和方式。
例如,一项越来越流行的服务是以使得观看者能够主动地且动态地与系统互动以改变绘制的参数的方式来提供图像序列。在许多应用中,一项非常吸引人的特征是改变观看者的有效观看位置和观看方向的能力,例如允许观看者在呈现的场景中移动和“环视”。
这样的特征可以具体地使得虚拟现实体验能够被提供给用户。这可以允许用户在虚拟环境中(相对)自由地四处移动并且动态地改变他的位置和他正在观看的地方。通常,这样的虚拟现实应用基于场景的三维模型,其中,该模型被动态评估以提供具体请求的视图。该方法从例如用于计算机和控制台的游戏应用(例如在第一人称射击游戏类别中)众所周知。
还希望,特别是对于虚拟现实应用,所呈现的图像是三维图像。实际上,为了优化观看者的沉浸感,通常优选的是,使用户将所呈现的场景体验为三维场景。实际上,虚拟现实体验应当优选地允许用户选择他/她本身相对于虚拟世界的位置、相机视点和时刻。
为了支持许多这样的新应用和服务,希望能够准确地捕获场景。与其中用于单个视点的单个视口通常足够的传统应用(例如,传统视频序列)相比,希望可以准确地捕获完整3d场景信息。
例如,利用6dof(六自由度,对应于用于视点位置的三个自由度和用于取向的三个自由度)虚拟现实捕获,通常在多个方向从多个位置捕获场景,以便捕获关于整个场景的准确且完整的信息。在从这样的捕获播放6dof内容期间,在典型应用中,观看者可以在场景内自由地移动,其中,视图被动态地合成以对应于观看者的当前虚拟姿态。所呈现的视图可以例如是使用合适的算法根据最初捕获的视图合成的内插视图。这实现平滑转变和/或减少所需的捕获光场数据量。通常,对于这样的视图内插,深度信息被用于合成,其中,深度信息通常被直接捕获或根据立体图像来估计。另一范例可以是使用所捕获的视图来开发场景的三维模型。
在许多应用中,可以通过移动手持相机来捕获静态场景。在捕获之后,针对所捕获的图像的相机位置和观看方向被导出并且用作用于视图合成的基础图像或生成针对场景的三维模型。
然而,为了使基于所捕获的图像的这样的表示足够准确,需要通过图像捕获足够量的相关信息。这往往需要相对较高的空间捕获频率/密度,并且实际上已经发现,用户通常对空间或角度欠采样,导致任何虚拟相机都被不理想地定位。这可能具有重大影响。例如,在没有足够的相机位置被捕获的区域中,连续处理步骤(诸如取向细化)可能失败。
这样的捕获方法的问题包括:
1、难以定位手持相机使得在空间上(和在所有方向上)足够密集地采样所得光场。
2、难以先验地确定相机扫描图案是用于例如最佳6dof回放的,因为这密切取决于个体场景的性质。
解决方案是彻底捕获实质上所有可能的视图位置和方向。然而,尤其是使用手持相机系统手动地这么做(或甚至使用自动移动系统,例如驾驶机器人)至多非常耗时且通常不切实际,并且通常不可能保证捕获所有意图的位置和取向。
此外,将捕获需要稍后删除或压缩的冗余视图,以便确保数据存储、分布和处理资源要求不会变得过多。
使用机器人和/或专用多相机平台可以解决这些问题中的一些。然而,这样的方法往往成本高昂、繁琐、需要可用的复杂装置和设置等。多相机平台也可以引入自遮挡的问题,即,相机模糊彼此的场景的视图。
为了解决手动图像捕获中的问题,已经提出了将图像叠加有图形符号,所述图形符号指示应当如何在不同捕获之间改变相机的取向。例如,已经开发了用于例如全景拍摄的移动电话捕获应用程序,移动电话捕获应用程序在显示器上示出应当如何旋转相机以捕获多幅图像,所述多幅图像随后可以被拼接在一起以扩大相机的有效视角。然而,这样的方法仍然会导致次佳捕获场景且通常不适合用于更复杂应用,诸如当需要准确的三维信息以便构建场景模型时。
因此,改善的图像捕获系统和方法将是有利的。具体地,允许改善的操作、促进的捕获、改善的场景表示、增强的灵活性、促进的实施方式、促进的操作、降低的数据存储、分布和处理资源要求、改善的适应性和/或改善的性能的方法将是有利的。
us2014/0300775a1公开一种用于处理一幅或多幅图像以确定相机位置信息和/或相机姿态信息的方法。该文件公开一种应用,其中用户设备可以从当前位置到用于拍摄照片的最爱位点的路线形式来显示对用户的指导。
技术实现要素:
因此,本发明寻求单独或采用任何组合较好地缓解、减轻、或消除上文提及的一个或多个缺点。
根据本发明的一方面,提供一种图像捕获装置,其包括:捕获单元,其用于捕获场景的图像;追踪器,其用于动态地确定所述捕获单元的姿态;姿态处理器,其用于确定所述捕获单元的相对于期望捕获姿态集合的当前姿态;显示器;显示器控制器,其被耦合到所述姿态处理器,所述显示器控制器用于控制所述显示器以呈现当前捕获姿态指示,所述当前捕获姿态指示包括在捕获单元的图像平面外的方向上所述捕获单元的相对于所述期望捕获姿态集合的所述当前姿态的位置的指示;以及捕获处理器,其被布置为响应于针对所述场景所捕获的数据而确定所述期望捕获姿态集合中的捕获姿态中的至少一些。
该方法可促进、允许和/或支持改善的对场景的捕获,并且尤其是寻求捕获场景的三维表示的捕获操作。在许多情景中,该方法可导致通过较简单且较不繁琐的捕获操作和过程来生成改善的捕获数据。
图像捕获装置可以提供更准确地反映如何捕获物理场景的输出指示,以提供例如用于对针对场景的模型的视图合成或开发的增强数据。该指示可以反映捕获单元101所需的移动或取向,以便执行真实世界场景的可接受或期望的捕获。该指示可以以任何合适形式来提供,并且例如在不同实施例中可以使用不同视觉指示。
在图像平面外的位置的指示可以具体地是在捕获单元的相机的深度或z方向上的指示。该指示可以指示包括在垂直于相机的图像平面的方向上的分量的相对位置。因此,在图像平面外的位置的指示不仅是平行于图像平面(或在图像平面中)的相对位置的指示,并且不仅仅是旋转的指示。图像捕获装置可以提供对应于方向的相对位置指示,该相对位置指示不仅仅是捕获单元的相机的侧向图像平面平移或旋转。在图像平面外的位置的指示可以具体地提供对捕获单元/相机需要向前或向后移动的指示,以便为此与期望捕获姿态集合中的姿态在空间上符合。在许多应用中,除了控制显示器以呈现在图像平面外的位置的指示外,显示器控制器也可以控制显示器以提供在图像平面内的相对位置的指示和/或相对于期望捕获姿态集合的当前姿态的取向的指示。
期望捕获姿态集合可以具体对应于被确定或被估计以实现对场景的可接受捕获的姿态集合。在一些应用中,期望捕获姿态集合可以被预先确定,并且在其他应用中,可以适合于特定场景特性。
显示器控制器可以被布置为控制显示器以通过生成由显示器呈现的视频或类似显示信号来呈现指示。视频信号可以被生成以包括示出当前捕获姿态指示的图像。在许多应用中,视频信号也可以包括当前由捕获单元捕获的图像,并且因此显示器也可以示出如由捕获单元捕获的场景的图像。
显示器可是传统二维显示器,或可以例如是三维显示器。
在一些实施例中,捕获单元的相对于期望捕获姿态集合的当前姿态的位置的指示包括二维或三维位置指示。
期望捕获姿态集合可以取决于场景的性质而调整,并且在许多情况和应用中,这可以允许改善的捕获操作。
具体地,数据可以是光场数据(图像)和/或深度数据(例如,深度图)。在一些实施例中,捕获处理器可被布置为响应于以一个或多个姿态所捕获的图像而确定期望捕获姿态集合。在一些实施例中,捕获处理器被布置为响应于以场景中的一个或多个姿态所捕获的深度数据而确定期望捕获姿态集合。在一些这样的实施例中,深度数据可以根据以稍微不同的视点所捕获的图像(例如,根据立体图像)来确定或导出。
数据可以针对场景中的一个或多个姿态而被捕获。具体地,数据(或数据中的至少一些)可以针对属于期望捕获姿态集合(例如,在随后取决于所捕获的数据而被修改的初始标称期望捕获姿态集合中)的多个姿态而被捕获。
在一些实施例中,捕获处理器可以被布置为响应于以第一姿态所捕获的图像指示增大的纹理变化而改变第一姿态的邻域中的期望捕获姿态的空间密度。
根据本发明的任选特征,当前捕获姿态指示包括捕获单元的相对于期望捕获姿态集合的取向的指示。
在许多实施例和情景中,这可以提供改善的和/或促进的操作和/或实施方式。在许多应用中,其可以导致改善的对场景的捕获。
根据本发明的任选特征,显示器是三维显示器,并且当前捕获姿态指示是对期望捕获姿态集合中的姿态的方向的三维指示。
在许多实施例中,这可以提供在当前姿态与期望捕获操作之间的潜在关系的改善的指示。
根据本发明的任选特征,显示器是增强现实头戴装置的显示器,并且当前捕获姿态指示是相对于当前姿态的位置的期望捕获姿态的位置的指示。
在许多实施例中,这可以提供在当前姿态与期望捕获操作之间的潜在关系的改善的指示。增强现实头戴装置可以例如是虚拟现实头戴装置或增强现实眼镜。
根据本发明的任选特征,捕获单元被包括在手持设备中。
本发明可以允许使用手持装置实质上改善的和/或促进的对场景的捕获,诸如用于捕获场景的手持静态相机或视频相机。该方法可以例如使得非专家仅使用例如手持设备(诸如智能手机)准确地捕获复杂场景实际可行。
根据本发明的任选特征,捕获处理器被布置为响应于以第一姿态所捕获的数据而改变第一姿态的邻域中的期望捕获姿态的空间密度。
在许多实施例和情景中,这可以提供改善的和/或促进的操作和/或实施方式。在许多应用中,可以导致改善的对场景的捕获。
根据本发明的任选特征,捕获处理器被布置为响应于以第一姿态所捕获的数据指示增大的深度变化而增大第一姿态的邻域中的期望捕获姿态的空间密度。
在许多实施例和情景中,这可以提供改善的和/或促进的操作和/或实施方式。在许多应用中,可以导致改善的对场景的捕获。
在一些实施例中,捕获处理器可以被布置为响应于以第一姿态所捕获的数据指示减小的深度变化而减小第一姿态的邻域中的期望捕获姿态的空间密度。
根据本发明的任选特征,捕获处理器被布置为响应于以第一姿态所捕获的数据指示到场景的对象的减小的距离而增大第一姿态的邻域中的期望捕获姿态的空间密度。
在许多实施例和情景中,这可以提供改善的和/或促进的操作和/或实施方式。在许多应用中,其可以导致改善的对场景的捕获。
在一些实施例中,捕获处理器可以被布置为响应于以第一姿态所捕获的数据指示到场景的对象的增大的距离而减小第一姿态的邻域中的期望捕获姿态的空间密度。
根据本发明的任选特征,捕获处理器被布置为响应于以第一姿态所捕获的数据指示场景的对象的表面的增大的粗糙度而增大第一姿态的邻域中的期望捕获姿态的空间密度。
在许多实施例和情景中,这可以提供改善的和/或促进的操作和/或实施方式。在许多应用中,其可以导致改善的对场景的捕获。
在一些实施例中,捕获处理器可以被布置为响应于以第一姿态所捕获的数据指示场景的对象的表面的减小的粗糙度而减小第一姿态的邻域中的期望捕获姿态的密度。
根据本发明的任选特征,数据包括深度数据。
根据本发明的任选特征,捕获处理器被布置为通过将至少一个期望捕获姿态添加到多个姿态中的第一姿态的邻域中的预定期望捕获姿态集合而增大所述邻域中的期望捕获姿态的空间密度。
这可以提供对期望捕获姿态集合的有效且低复杂性调整。
在一些实施例中,捕获处理器可以被布置为通过移除第一姿态的邻域中的预定期望捕获姿态集合中的至少一个期望捕获姿态而减小该邻域中的期望捕获姿态的空间密度。
根据本发明的任选特征,显示器控制器被布置为控制该显示器以呈现当前捕获姿态指示,而不显示当前由捕获单元捕获的图像。
根据本发明的一方面,提供一种图像捕获的方法,其包括:动态地确定能够捕获场景的图像的捕获单元的姿态;确定所述捕获单元的相对于期望捕获姿态集合的当前姿态;控制显示器以呈现当前捕获姿态指示,所述当前捕获姿态指示包括在所述捕获单元的图像平面外的方向上所述捕获单元的相对于所述期望捕获姿态集合的所述当前姿态的位置的指示;所述捕获单元捕获场景的图像;以及响应于针对所述场景所捕获的数据而确定所述期望捕获姿态集合中的捕获姿态中的至少一些。
本发明的这些和其他方面、特征、以及优点将参考下文描述的(一个或多个)实施例变得显而易见并将参考下文描述的(一个或多个)实施例得以阐述。
附图说明
将仅以范例的方式参考附图来描述本发明的实施例,在附图中:
图1图示根据本发明的一些实施例的图像捕获装置的元件的范例;
图2图示期望捕获姿态的图案的范例;
图3图示确定与捕获姿态的接近性的范例;
图4图示根据本发明的一些实施例的调整期望捕获姿态集合的范例。
具体实施方式
以下描述集中于适用于手持式图像捕获系统和方法的本发明的实施例,但将认识到,本发明不限于这样的应用,而是可以被应用于许多其他图像捕获系统。
图1图示根据本发明的一些实施例的图像捕获装置的范例。该图像捕获装置可以例如用于捕获3d场景,使得可以针对场景生成详细的表示或模型,例如用于虚拟现实应用中。为了这样做,通常需要从许多不同位置和在许多不同方向上捕获场景,即,需要针对大量姿态来捕获。然而,这往往非常繁琐且耗时,并且需要大量工作量。如果捕获姿态的选择被优化(例如,通过移除捕获之间的冗余并且确保用较少的捕获来实现针对该场景的所需覆盖),则可以减少这样的缺点。在一些情景中,这可以通过对捕获的仔细规划和手动组织来实现。然而,在许多情景和应用中,这是不切实际的,例如,在对场景的捕获意图由一般消费者使用手持设备(诸如智能电话)来完成的情况下。
图1的图像捕获装置可以通过提供对针对给定场景的合适捕获姿态的反馈从而引导用户从有利姿态进行捕获来辅助捕获过程。在许多情景中,由于用户被引导朝向提供针对场景的改善的捕获数据的捕获姿态,所以该反馈可以基于较少捕获来提供对场景的改善的总体捕获。
该图像捕获装置包括捕获单元101,该捕获单元通常可以包括捕获场景的相机。该相机通常可以是传统相机,或例如可以是立体相机。该捕获单元被布置为捕获场景的(光场)图像,并且在一些实施例中,也捕获深度信息(例如,通过立体图像从像差或专用深度信息推断深度,诸如通过直接深度测量所确定的z值(例如,使用深度测距相机))。
相机单元被耦合到追踪器103,该追踪器被布置为确定捕获单元的姿态。因此,由追踪器103确定针对捕获场景的图像的相机的姿态。这可以针对给定时刻测量/估计捕获单元的对应于针对在该时刻所捕获的图像的视点姿态的姿态。
在本领域中,术语放置或姿态被用作用于位置和/或方向/取向的常见术语。例如对象、相机、或观看的位置和方向/取向的组合可以被称为姿态或放置。因此,放置或姿态指示可以包括六个值/分量/自由度,其中每个值/分量通常描述对应的对象的位置/定位或取向/方向的个体性质。当然,在许多情形中,放置或姿态可以用更少的分量来考虑和表示,例如,如果一个或多个分量被视为固定的或不相关的(例如,如果所有对象被视为处于同高度或具有水平取向,则四个分量可以提供对象的姿态的完全表示)。在下文中,术语姿态用于指代可以由一至六个值(对应于最大可能的自由度)表示的位置和/或取向。本说明将集中在其中一个姿态具有最大自由度的实施例和范例,即,位置和取向中的每个的三个自由度得到总共六个自由度。因此该姿态可以通过代表六个自由度的六个值的集合或向量来表示,并且因此该姿态向量可以提供三维位置和/或三维方向指示。然而,将认识到,在其他实施例中,姿态可以由较少的值来表示。
在范例中,追踪器103被布置为动态地确定捕获单元101的相机的视点的姿态,并且其可以持续确定在捕获操作期间(或可能仅在这样的操作的间隔内)的当前姿态。捕获单元101可以具体地确定反映当前姿态的六值姿态向量。
对捕获单元101的精确确定以及通常对捕获单元的相机的姿态的精确确定将取决于个体实施例的特定偏好和要求。在许多实施例中,捕获单元101可以包括加速度计等,其允许追踪包括捕获单元101的设备的位置和取向,或更具体地,允许追踪捕获单元101的相机(通常,相机的姿态通过追踪捕获单元101被实施于其中的设备来追踪)。例如,捕获单元101可以被实施在智能手机中,并且内置定位功能(例如,基于gps的)、加速度计等可以被用于确定智能手机的位置和取向,并且因此确定相机视点的位置和取向(观看位置和观看取向)。在许多实施例中,追踪器103不是分开的设备,而是与捕获单元101相同的设备的一部分,并且实际上在许多实施例中,图1的整个图像捕获装置可以被实施在单个设备中。在许多典型实施例中,基于在立体相机图像或图像+深度传感器中检测到的特征点来实现实时确定姿态。其他传感器(例如,加速度计、陀螺仪、磁传感器)可以有助于传感器融合方法。
例如,将认识到,在许多实施例中,追踪器101被布置为例如通过将低通滤波应用到所确定的测量或估计来至少部分地基于先前姿态而确定当前姿态。然而,在一些实施例中,可以完全基于当前性质来确定当前姿态,并且可以不执行使当前确定的姿态与先前(或未来)姿态相关联的操作。
追踪器103被耦合到姿态处理器105,该姿态处理器被布置为比较由追踪器103所指示的当前姿态与期望捕获姿态集合。在范例中,姿态处理器105被耦合到捕获处理器111,该捕获处理器将期望捕获姿态集合提供到姿态处理器105。在一些实施例中,捕获处理器111可以被布置为同时(并且具体地,在许多实施例中,在捕获操作开始时)将整个期望捕获姿态集合提供到姿态处理器105。在其他实施例中,可以利用捕获处理器111逐渐(例如,一次一个)提供期望捕获姿态集合,其中,一旦捕获已经针对先前姿态被执行,该捕获处理器就提供仅仅下一个期望捕获姿态。类似地,在一些实施例和情景中,期望捕获姿态集合可以是预定捕获姿态集合,而在其他实施例中,期望捕获姿态集合可以在捕获过程期间被动态地确定。例如,在一些实施例中,捕获处理器111可以在捕获过程开始时提供对应于预定捕获图案的完整期望捕获姿态集合。在其他实施例中,捕获处理器111可以被布置为基于先前姿态(并且具体地,基于来自先前姿态的捕获结果)来适应性地确定下一个期望捕获姿态,并且因此捕获处理器111可以基于先前操作来动态地确定下一个捕获姿态。
姿态处理器105被布置为确定相对于期望捕获姿态集合的当前姿态。在许多实施例中,可以在相同坐标系中提供来自第二处理器309的期望捕获姿态集合和来自追踪器103的当前姿态,并且因当前姿态可以容易地与期望捕获姿态集合相比较。在其他实施例中,姿态处理器105可以被布置为执行坐标变换或以其他方式补偿当前姿态与期望捕获姿态集合在参考坐标系中的差异。
姿态处理器105被耦合到显示器控制器107,该显示器控制器被布置为控制显示器109。姿态处理器105将反映相对于期望捕获姿态集合的当前姿态的数据提供到显示器控制器107,并且作为响应,显示器控制器107控制显示器以呈现当前捕获姿态指示,该当前捕获姿态指示对捕获单元的相对于期望捕获姿态集合的当前姿态进行指示,并且具体地指示捕获单元的相对于期望捕获姿态集合的当前姿态的位置。因此,该系统控制显示器以将相对于期望捕获姿态的当前相机姿态的指示提供给用户,从而引导用户朝向下一个合适的捕获姿态。这使得用户能够移动捕获单元101,使得针对被包括在期望捕获姿态集合中的姿态而生成捕获,从而提供改善的捕获以减少工作量。
将认识到,在不同实施例中,姿态处理器105可以提供指示相对于期望捕获姿态集合的当前姿态的不同数据。类似地,将认识到,在不同实施例中,对数据的处理和对显示器的控制将不同,并且具体地,在不同实施例中,可以控制显示器以提供相对于期望捕获姿态集合的当前姿态的不同指示。
例如,在一些实施例中,姿态处理器105可以评估当前姿态、期望捕获姿态集合、以及先前捕获操作,以确定相对于当前姿态的最接近的期望捕获姿态。然后,其可以例如简单地通过使两个适当的姿态向量彼此相减以得到差异姿态向量来确定姿态差量,该姿态差量指示将捕获单元101从当前姿态改变到下一个期望姿态所需的姿态的变化。该姿态向量然后可以被提供到显示器控制器107。
显示器控制器107可以例如生成用于显示的视频信号,其中帧/图像包括或包含差异向量的图形表示。如果显示器是3d显示器,则图形表示可以例如包括两个三维箭头,其中一个箭头指向移动捕获单元101的方向,而另一个箭头指示所要求的旋转(取向的变化)。对于二维显示器,3d指示可以例如通过由到场景的图像的表示上的投影所表示的箭头来提供,或例如两个箭头可以用于位置指示和定位指示中的每个。作为另一范例,显示器控制器107可以简单地控制显示器以直接显示差异向量的分量值。
作为另一范例,在一些实施例中,姿态处理器105可以将个体地描述当前姿态和期望捕获姿态集合(例如,涉及同一坐标系)的数据提供到显示器控制器107,并且显示器控制器107可以继续以显示期望捕获姿态集合的三维位置和当前姿态的三维位置的表示。此外,对于每个呈现的期望捕获姿态,可以包括示出相对于当前取向的期望取向的箭头。对于二维显示器,三维信息可例如通过到场景上的投影(如果这被显示的话)来提供,或例如可以通过包括用于每个捕获姿态的多个指示符来实现。
图像捕获装置被布置为生成相对于期望捕获姿态集合的当前姿态的指示,以包括在捕获单元的图像平面外的方向上捕获单元的相对于期望捕获姿态集合的当前姿态的位置的指示。捕获单元101被布置为捕获场景的图像,并且该图像可以具体地是二维图像,该二维图像具有对应于三维场景到二维图像上的投影的图像平面。例如,传统相机捕获二维图像,并且包括这样的相机的捕获单元101固有地捕获二维图像且具有对应的二维图像平面。该二维图像平面通常通过场景被投影到其上的二维图像传感器(诸如ccd传感器)来给出。
对场景的传统捕获通常基于这样的二维图像,其中,捕获的过程基于所捕获的图像的二维性质。
例如,一些传统捕获操作包括通过组合多幅通常交叠的图像来生成组合图像。例如,可以通过在一个方向上拍摄图片、移动相机到一侧或可能旋转相机、拍摄另一图片等而创建全景图片。软件然后可以被用于组合图像以生成全景图片。在一些情况中,这样的应用可以包括用户应当将相机向左或向右移动以捕获下一幅图像的指示。反馈可以被提供给用户,该反馈示出如何通过将图像平面中的图像区域移位以将所覆盖的区域超出利用特定相机的视角可能覆盖的区域来扩展图像平面中的当前图像区域。
这样的传统方法基本上在二维平面中操作,并且简单地寻求增大相机的有效视角。
在图1的系统中,显示器控制器107被布置为生成指示,该指示包括在捕获单元的图像平面外的方向上捕获单元的相对于期望捕获姿态集合(的一个或多个位置)的当前姿态的位置的指示。因此,该指示可以提供关于捕获单元101应当如何(相对于图像平面)向前或向后移动以便达到期望捕获姿态并且具体地达到期望的捕获位置的信息。该方法可以用于将反馈和指导提供给用户,其允许基于不限于二维平面(具体地,图像平面)而是利用考虑场景的完全范围的捕获方法的捕获的对场景的完全三维捕获。可以认为该方法提供基于场景的捕获,其中场景中的期望捕获位置可以被识别,并且观看者被引导到这些捕获位置,而非仅使用基于观看者的捕获方法,其中,用户被指导以将视点位置或取向移位来扩展二维视图平面的所捕获的区域。与旨在增加所覆盖的图像平面的有效视角/区域的传统方法相比,图1的图像捕获装置旨在捕获数据以更准确地表示场景,并且具体地,表示场景的三维特性。
因此,图1的系统被布置为指导用户并提供反馈,该反馈不仅是图像平面捕获区域可以如何被扩展的指示,而且向用户提供信息,该信息允许他们在实际场景/环境中四处移动,以提供改善的捕获。因此,图1的图像捕获装置被布置为导出并呈现真实世界/场景域中的反馈,而非图像域中的简单图像平面指示。此反馈不仅指示如何扩展图像区域,而且也指示捕获单元101的在图像平面外的所需或期望的移动。
具体地,该指示可以包括相对于期望捕获姿态集合的当前姿态的指示,而不限于图像平面本身。相反,位置指示也包括在不在图像平面中的方向上当前位置如何与期望捕获姿态相关的指示。具体地,该指示可以指示在垂直于图像平面的方向上当前位置如何与期望捕获姿态相关,并且因此该指示可以提供关于用户应当如何将捕获单元101“移入或移出”图像平面的反馈。因此,该指示提供可以将用户引导到真实三维世界中的复杂捕获图案的信息,这可以提供对场景的好得多的三维捕获。
因此,该位置指示可以具有指示在不在图像平面中(或平行于图像平面)的方向上在当前位置与至少一个期望捕获姿态之间的相对位置差的分量,但是具有到垂直于图像平面的方向或轴上的非零投影。因此,该指示可以指示在z方向上的位置差,其中,图像平面对应于三维坐标系x、y、z的x、y平面。
应当注意,在一些实施例中,捕获单元101可以是三维相机,而不是传统二维相机。然而,在这样的情况下,捕获单元101将仍然被链接到(通常)一个图像平面。例如,测距3d相机可以提供以图像和对应深度图的形式的输出。在这种情况下,图像(和深度图)将定义图像平面。此外,对于立体(或更一般地,多视图)相机,每幅提供的图像定义图像平面,并且实际上通常针对所提供的所有图像的图像平面相同。
期望捕获姿态集合通常反映期望图像/捕获被执行的姿态集合。在下文中,期望捕获姿态将也被称为锚点姿态(并且类似地,期望捕获位置/取向也将被称为锚点位置/取向)。
除了显示器控制器107生成例如当前位置相对于下一个锚点位置的差异的指示外,该显示器控制器也可以生成相对于期望捕获姿态集合的当前姿态的取向的指示,并且具体地,可以生成相对于下一个锚点姿态的取向的当前姿态的指示。这可以向用户提供改善的反馈,并且可以例如得到向用户提供反馈和指导以允许他基于例如针对每个锚点的锚点位置与多个锚点取向的图案来执行捕获的系统。因此,可以利用指导来实现对三维场景的有效捕获,例如确保从不同方向查看对象,实现对场景的所有区域的充分覆盖等。
在许多实施例中,该图像捕获装置还可以包括用于根据针对期望捕获姿态集合(中的至少一些)所捕获的图像来生成场景的模型的模型处理器(未示出)。在许多实施例中,根据期望捕获姿态集合所捕获的深度数据(并且通常与图像相关联)也可以用于生成模型。将认识到,用于开发这样的模型的任何适当的方法可以被使用,并且在本领域中已知多种不同方法。在许多实施例中,该方法可以用于基于改善的捕获来生成场景的改善的模型。该模型随后可以用作为例如虚拟现实应用的基础。
在一些实施例中,该图像捕获装置可以还包括图像合成器,该图像合成器被布置为根据针对期望捕获姿态集合的场景的图像来合成针对不属于期望捕获姿态集合的姿态的一幅或多幅图像。因此,该图像合成器可以被布置为针对与已经捕获的图像的那些姿态不同的姿态合成新图像。这样的图像合成可以基于技术人员众所周知的视点移位算法。因此,该方法可以提供用于捕获场景的特别有效的方法,使得其可以提供用于图像合成的适当基础,由此例如可以生成从所有可能姿态观看场景的图像,尽管场景仅从有限捕获姿态集合捕获。
捕获单元101以及实际上在许多实施例中整个图像捕获装置可以被实施在手持设备中,诸如例如智能手机或手持静态或视频相机。该方法可以有利地支持捕获过程,其中,用户可以简单地遵循由姿态指示符所提供的指导方针来四处移动智能手机/相机,从而得到从不同且有利的捕获位置对场景的3d特性的有效捕获。
在一些实施例中,该图像捕获装置也可以被布置为动态显示由捕获单元101所捕获的图像。例如,在一些实施例中,捕获单元101可以提供流传输流的捕获流,诸如有效地提供包括动态捕获的图像的视频信号。显示器控制器107可以生成包括这些图像的显示信号,从而提供当前由捕获单元101所捕获的实时图像。显示器控制器107还可以将该实时图像叠加有姿态指示,例如,通过将该图像叠加有指示将当前姿态改变到下一锚点姿态所需的必要运动的一个或多个箭头。作为另一范例,显示器控制器107可以生成显示信号,在该显示信号中,锚点叠加图像并指示在三维场景中锚点被定位在何处。
然而,在许多实施例中,该图像捕获装置有利地被布置为不动态地显示当前捕获的图像。这可以例如允许使用静态图像相机而非视频相机由此提供更高质量捕获。在许多实施例中,其可以进一步允许促进的操作,其中,简单的指示(诸如一个或多个箭头)被显示给用户以提供朝向锚点姿态的指导。
作为实施例的具体范例,对场景的捕获可以意图使用预定义的锚点位置网格并且利用针对每个锚点位置的预定义锚点取向来实现。在范例中,虚拟相机的网格形成高于地表面的单个水平平面。在图2中图示了姿态的图案/网格。在该图中,锚点位置被可视化为球形/圆形,其中四个箭头指示待针对每个锚点所捕获的四个水平方向/取向。如所示的,网格可以由25个锚点位置组成,其中针对每个位置有四个锚点取向,从而得到总共100个锚点姿态。在范例中,网格为大致在眼睛高度(1.7m)处的水平网格,从而允许具有手持设备的用户相对容易地移动设备以实现期望捕获姿态。在范例中,针对锚点位置的高度(例如,y方向)恒定,而针对不同锚点位置的侧向(x)和进/出(z)方向不同。类似地,对于取向,y分量固定,而x和z方向改变。实际上,对于取向,所有捕获方向是水平的,并且相机的旋转也是静态的(图像是水平的),使得可以通过单个变量(例如具体地,相对于例如x方向的角度)来表示取向。因此,在范例中,姿态可以由具有三个分量的姿态向量来表示。
在范例中,该图像捕获装置的显示器可以将应当向前移动(移动到图像中)或向后移动(移动到图像外)的指示显示给用户。同时,该显示器可以指示用户是应当向右移动还是向左移动,并且另外,指示用户是应当顺时针还是逆时针旋转。这些指示可以被动态更新,以反映捕获单元101的当前姿态,并且如果用户遵循所提供的指导,则这将他引导到下一锚点姿态。当捕获已经针对该锚点姿态被执行时,指示可以被改变为与下一个未捕获的锚点姿态有关。因此,遵循该指导的用户将被引导通过捕获序列,该捕获序列将得到从所有期望锚点位置和在所有期望方向上的捕获。
作为另一范例,显示器可以呈现一种图案,其连续指示锚点位置/姿态相对于相机的地方,例如,可以针对每个锚点位置示出单个圆形或球形(可能具有延伸以示出针对这些的锚点取向的箭头)。例如,显示器控制器107可以有效地生成叠加或图形图像,该叠加或图形图像将场景中的捕获位置的位置示出为它们(即,针对当前相机姿态)将从相机看到的那样。当相机被移动时,姿态指示符的位置改变以反映视点变化,从而得到向用户提供场景的真实3d空间中的锚点位置(或姿态)的印象的3d效果(例如,视差)(有效地,虚拟3d位置指示被生成)。然后,用户可以移动捕获单元101朝向虚拟位置指示以移动到下一个锚点姿态。
因此,该方法可以允许基于手持或用户可移动的相机的便利且有效的捕获过程。应当注意,这样的捕获操作将不可能使用单个多相机平台进行,因为相机将遮蔽其他相机的视图。对静态场景的顺序扫描可以提供实用的解决方案。
在许多实施例中,该图像捕获装置可以被布置为响应于检测到当前姿态足够靠近未捕获的锚点姿态而执行捕获。例如,如果捕获单元101被检测为在锚点姿态的给定距离和方向内,如图3所示,则针对该锚点姿态的图像可以被自动拍摄并且存储。在一些实施例中,对所扫描的锚点的视觉反馈可以例如通过改变姿态或位置指示的外观(例如,颜色)来提供。
在许多实施例中,显示器可以是三维显示器并且姿态指示符可以利用全部三维。例如,三维箭头可以被呈现,从而示出到下一个锚点的方向。作为另一范例,可以以三维示出锚点位置的图案。
在许多实施例中,显示器可以是增强现实头戴装置的显示器(例如,增强现实眼镜或虚拟现实头戴装置)。在这样的情况下,该指示可以相对于当前头部取向来示出。例如,捕获单元101的相对于当前头部位置的位置可一连同下一锚点的位置一起示出。因此,用户将有效地看到捕获单元101的对应于当前头部姿态的位置和锚点位置的虚拟表示,并且因此可以相应地移动捕获单元101以将该捕获单元定位在捕获位置处。
因此,该方法可以包括在虚拟或增强现实眼镜上可视化期望相机位置与取向的预定义和/或动态确定的图案。戴上这样的眼镜,用户现在可以将捕获单元101的相机靠近虚拟相机位置定位。当相机在与锚点姿态相距预定义距离和角度内时,该相机自动拍摄图片,并且对应的锚点姿态指示可以改变颜色以指示已经针对该姿态执行了捕获并且操作者可以继续进行至下一个锚点姿态。
在前述范例中,期望捕获姿态集合对应于预定锚点姿态集合,诸如锚点位置与固定锚点取向的规则网格或立方体。然而,在其他实施例中,该图像捕获装置可以被布置为响应于正被捕获的场景的性质来调整期望捕获姿态集合。
在许多实施例中,姿态处理器105可以被耦合到捕获处理器111,该捕获处理器被布置为响应于针对场景所捕获的数据而确定期望捕获姿态集合。以这种方式,期望捕获姿态集合可以适合于特定场景的特性。作为低复杂度的范例,该图像捕获装置可以最初从随机视点捕获几幅图像,并且取决于图像的性质(例如,诸如取决于场景中的变化的程度)来调整例如捕获区域的空间密度或范围。
在许多实施例中,最佳锚点姿态集合被适应性地确定以反映当前状况。
具体地,捕获处理器111可以被布置为响应于针对场景所捕获的数据而确定期望捕获姿态集合中的捕获姿态中的至少一些。该数据可以具体地是针对期望捕获姿态集合中的一些捕获姿态所捕获的光强度图像数据和/或深度数据(并且具体地,深度相关的图像数据)。因此,捕获姿态集合可以基于针对已经被包括在期望捕获姿态集合中的捕获姿态所做出的捕获来动态地更新并修改。
作为范例,该捕获过程可以通过预定或默认捕获姿态集合来初始化,例如,该集合可以利用对应于在捕获姿态之间具有给定距离的规则网格的捕获姿态来初始化。基于此,捕获过程可以以用户被引导到适当姿态并且因此进行捕获而开始。然后,所得图像可以被处理以例如确定针对场景的深度特性。光强度和/或深度可以被分析并且基于该分析,捕获处理器111可以例如将一些捕获姿态添加到期望捕获姿态集合。例如,如果发现到一个区域中的捕获姿态正在捕获场景的特别复杂的一部分(例如,通过场景的具有大深度变化的这个部分来估计),则捕获处理器111可以添加该区域中的捕获姿态以便提供针对场景的该部分的额外数据。例如,其可以在现有捕获姿态之间中添加捕获姿态。
对捕获姿态集合的调整可以基于对以下项的评价:基于被包括在锚点姿态集合中的锚点姿态,场景可以被多么好地建模或针对不同视点的图像可以被多么好地合成。如果估计无法实现足够准确的合成/建模,则可以包括另外的锚点姿态以确保这可以被实现。在一些实施例中,捕获处理器111可以应用预定图案,诸如类似于图2的网格系统的网格系统,但是例如基于得到的建模/合成针对该网格所呈现的多么准确来改变网格中所包括的锚点位置的大小和数量。在其他实施例中,锚点的局部变化可以被采用,其中,与场景不难以建模/合成的区域相比,在场景更难以建模/合成的区域中引入更高空间浓度/密度的锚点。
在一些实施例中,对模型/合成质量的评价可以仅当初始化捕获过程时才被考虑,并且对期望捕获姿态集合的适应性确定可以仅被执行一次。在许多其他实施例中,期望捕获姿态集合可以在捕获操作期间被适应性地且动态地确定,并且期望捕获姿态集合可以响应于过程的先前捕获而改变。
例如,在捕获过程期间,可以对场景的给定视图能够根据相邻(捕获的)视图被多么好地合成进行估计。当这预期可以高质量实现(例如,场景复杂度低或视点内插算法有效)时,可以例如通过移除锚点姿态而使锚点姿态集合在该区域中较不密集。反之,当合成视图的质量被预期为低时,锚点姿态的空间密度可以被维持或例如通过添加锚点姿态来增加。以这种方式,锚点姿态集合以及例如对应的显示图案在捕获过程期间可以改变。
在许多实施例中,捕获处理器111可以执行对可能质量的相当复杂且准确的分析。例如,捕获处理器111甚至可以根据来自现有锚点姿态的不同捕获集合来合成针对相同视点的视图,并且比较所得合成视图。如果视图足够类似,则不添加额外姿态,但是如果所得视图足够不同,则将对应于视点的新锚点姿态添加到锚点姿态集合。
在许多实施例中,较简单的方法可以用于确定适合用于调整期望捕获姿态集合的量度。例如,在许多实施例中,可以响应于针对该场景所捕获的数据而确定场景复杂度量度,并且可以响应于该复杂度量度来调整期望捕获姿态集合。通常,为了增加场景的复杂度,捕获处理器111将增加锚点姿态的数量/密度,并且为了降低场景的复杂度,该捕获处理器将减小锚点姿态的数量/密度。因此,场景复杂度被用作估计实际相机视图可以根据相邻锚点捕获来多么好地内插的探索。
在许多实施例中,捕获处理器111可以被布置为基于针对场景的深度数据来调整期望捕获姿态集合。深度数据可以具体地是像差、z值或指示从相机到场景中的对象(其对应于其深度值被提供的图像位置)的距离的任何其他值。
因此,在许多实施例中,该图像捕获装置可以包括深度处理器113,该深度处理器被布置为确定用于场景的捕获的深度值。因此,对于给定捕获姿态,深度处理器113可以针对给定捕获姿态确定反映从捕获单元101到场景的对象的距离的深度值。
在一些实施例中,深度处理器113可以直接包括深度测量功能,例如,其可以包括测距功能。在其他实施例中,深度处理器113可以被布置为根据例如由捕获单元101所捕获的图像来确定深度值。例如,如果捕获单元101包括立体相机,则深度处理器113可以被布置为根据由捕获单元101所生成的立体图像来确定深度值(通常使用像差估计,如技术人员众所周知的)。作为另一范例,如果捕获单元101包括2d相机,则深度处理器113可以被布置为通过比较针对不同姿态的图像来确定深度值(再次通常基于像差估计)。
实际上,虽然在图1中深度处理器113被图示为单独的功能块,但是其通常可以被视为捕获单元101的部分。
在许多实施例中,捕获处理器111可以额外地或备选地被布置为基于针对场景的光场数据/图像数据来调整期望捕获姿态集合。因此,在许多实施例中,捕获处理器111可以考虑视觉图像数据。
例如,针对场景的复杂度量度通常可以基于深度数据、图像数据或深度数据和图像数据两者来确定。例如,如果深度数据指示场景中存在大深度变化,具有例如相对频繁且相对陡峭的步幅变化,则可以认为这是场景复杂且需要锚点姿态的更高空间密度的指示。类似地,如果图像在具有很不相同的视觉性质的图像分段方面具有大的变化(例如,如果图像分割已经得到许多相对小的图像对象,并且这些对象具有很不相同的颜色和/或强度),则这可以被视为场景的高复杂度的指示,因此捕获处理器111可以增加锚点集合的空间密度。相比之下,如果深度和/或视觉变化低,则场景可以被视为具有相对低复杂度,并且锚点姿态的空间密度可以被减小。
该方法可以例如反映与具有很少或没有对象的场景相比,在具有相对大量小对象的场景中,通常需要更高数量的捕获姿态。
在许多实施例中,用于调整期望捕获姿态集合的数据可以是从现有锚点位置所捕获的数据。在许多实施例中,这可以促进操作,这是因为无需进行或处理额外捕获。在许多实施例中,其也可以提供改善的结果,这是因为当从锚点观看时其直接反映所估计的场景性质。
在一些实施例中,调整可以是全局调整,即,如果场景的复杂度增加,则所有锚点姿态之间的距离减小,并且锚点姿态的较大的总数量增加。然而,在许多实施例中,更局部化效果被采用,其中仅在数据被捕获的地方的邻域中的锚点的数量被修改。这可以允许一种考虑场景的复杂度的变化的更灵活方法,其中锚点姿态的密度变化以反映场景的复杂度。
在图4中图示了这样的方法的范例。该图示出用于两种不同场景(或在两个不同位置处,同时试图利用观看不同场景复杂度的两个位置来捕获场景)的捕获单元101。右边范例示出其中场景具有相对低场景复杂度的情景,并且锚点姿态的预定规则网格401可以用于从该邻域捕获。相比之下,左边情景示出其中场景具有相对高复杂度的范例,并且这已经导致锚点的空间密度的增加。在具体范例中,这通过将新锚点姿态403添加到预定锚点姿态网格来实现。
先前范例焦中于其中针对整个场景考虑场景复杂度和对期望捕获姿态集合的调整。然而,在许多实施例中,调整可以更局部化并且可以针对场景的不同部分而变化。因此,锚点位置的空间密度可以在场景复杂度较高的区域中增大,并且在场景复杂度较低的区域中减小。图4可以被视为锚点姿态的图案可以如何取决于局部特性针对场景的不同区域而改变的示例,即,两个情景可以反映同一场景的不同区域/部分。
在一些实施例中,捕获处理器111可以具体地被布置为响应于以第一姿态所捕获的数据指示增大的深度变化而增大该第一姿态的邻域中的期望捕获姿态的空间密度,和/或响应于以该第一姿态所捕获的数据指示减小的深度变化而减小该邻域中的空间密度。
如前面所提到的,深度变化估计可以被生成,该深度变化估计试图反映对应于在不同深度处的相对较高数量的不同对象的存在的多个深度转变的存在(或不存在)。这可以例如通过基于深度图中的深度转变来识别分段并且然后确定发现多少个这样的分段来实现。将认识到,许多其他方法可以用于确定适当的深度变化量度。
在一些实施例中,捕获处理器111可以被布置为响应于指示该场景的对象的表面的增大的粗糙度的量度而调整期望捕获姿态集合。例如,捕获处理器111可以识别由捕获单元101的相机所捕获的图像中的特定对象(例如,最大对象)(例如,基于对具有适当特性的分段的识别,如技术人员将众所周知的)。然后,捕获处理器111可以分析相关联的深度图的对应区段以确定该区域内的深度变化。与如果深度变化相对高从而反映对象具有粗糙表面相比,如果深度变化相对低,则对象的表面可以是相对光滑的并且对象可以使用较少锚点姿态来准确地表示。
在一些实施例中,捕获处理器111可以额外地或备选地考虑图像以及具体地对应于对象表面的图像分段的纹理化程度多高。例如,被识别用于基于深度数据来评估表面多么粗糙的对象可以额外地或备选地使用图像数据来评估。如果对象呈现出大量纹理变化,则这表明对象可以具有复杂的变化的表面,并且因此锚点姿态的空间密度可以被增大以确保表面被准确捕获。反之,如果纹理变化非常低,则这可以指示光滑表面并且较少锚点姿态可以被使用。
在一些实施例中,捕获处理器111被布置为响应于以第一姿态所捕获的数据指示到场景的对象的减小的距离而增大该第一姿态的邻域中的期望捕获姿态的空间密度。备选地或通常额外地,捕获处理器111可以被布置为响应于以该第一姿态所捕获的数据指示到场景的对象的增大的距离而减小第一姿态的邻域中的期望捕获姿态的空间密度。
当对象相对远离相机时,场景可以具体地被视为较不复杂,这是因为这通常提供不同方面的改善的可见度,并且在改变视图姿态时导致较少的变化。其也往往会导致被场景的其他部分的对象的较少遮挡。类似地,当对象相对靠近相机时,场景可以被视为更复杂,这是因为其需要更详细捕获以准确地反映对象中的变化,并且此外,导致对象通常遮挡场景的较大部分,从而需要额外锚点姿态以允许解除遮挡。
如前文所提及的,可以例如通过将新的期望捕获姿态添加到已经存在的期望捕获姿态集合和/或通过从已经存在的期望捕获姿态集合移除新期望捕获姿态来实现增大和减小期望捕获姿态的空间密度。在许多实施例中,这可以允许对期望捕获姿态集合的有效生成,并且可以有利地往往导致围绕所考虑标称期望捕获姿态集合的变化。例如,经验可以指示我们需要捕获来自对象的正好1/2度的视点。已知到对象的深度然后自动提供捕获单元的空间样本间距。然而,捕获处理器111可以修改该空间样本间距以反映局部变化,并且具体地可以在存在高复杂度的地方添加锚点位置并且在低复杂度的地方移除锚点位置。然而,由于捕获基于预定集合,所以需要被添加或移除的锚点位置的量往往相对较低,并且可以实现低复杂度操作。此外,该方法确保相对容易控制调整不太极端。例如,其允许容易控制以确保甚至对于低复杂度邻域仍有足够的锚点位置,并且甚至对于高复杂度邻域没有太多锚点位置。
将认识到,不同选择准则可以用于决定要移除或添加哪些捕获姿态。例如,在一些实施例中,捕获处理器111可以简单地移除每隔一个捕获位置以减小空间密度,或在现有捕获位置中途添加新捕获位置以增大空间密度。
将认识到,为了清楚起见,以上描述已经参考不同的功能电路、单元和处理器描述了本发明的实施例。然而,将显而易见的是,可以在不背离本发明的情况下使用不同功能电路、单元或处理器之间的任何合适的功能分布。例如,被示为由单独的处理器或控制器执行的功能可以由相同的处理器或控制器执行。因此,对特定功能单元或电路的引用仅被视为对用于提供所描述的功能的合适单元的引用,而不是指示严格的逻辑或物理结构或组织。
如“在……的邻域中”的术语对于本领域技术人员而言将不是不清楚术语,并且针对这样的术语的绝对值在本专利申请中一般不能给出,因为其将不公平地限制一些权利要求的范围。技术人员将认识到,他/她可以(并且应当)自由地确定“邻域”的定义,意识到任何绝对值取决于期望的质量,其是设计本发明的图像捕获装置的技术人员的选择。对邻域的精确选择将取决于个体实施例的具体设计偏好和要求。
本发明可以以任何合适的形式(包括硬件、软件、固件或这些的任何组合)实施。本发明可以任选地被至少部分地实施为在一个或多个数据处理器和/或数字信号处理器上运行的计算机软件。本发明的实施例的元件和部件可以以任何合适的方式来物理地、功能地和逻辑地实施。实际上,功能可以在单个单元中、在多个单元中或作为其他功能单元的一部分来实施。因此,本发明可以被实施在单个单元中,或者可以在不同的单元、电路和处理器之间物理地且功能地分布。
尽管本发明已经结合一些实施例进行描述,但是并不旨在将本发明限于本文中阐述的具体形式。相反,本发明的范围仅受所附权利要求的限制。另外,尽管特征可能看起来结合特定实施例进行描述,但是本领域技术人员将意识到,可以根据本发明组合所描述的实施例的各种特征。在权利要求中,术语包括不排除其他元件或步骤的存在。
此外,尽管单独列出,但是多个单元、元件、电路或方法步骤可以通过例如单个电路、单元或处理器来实施。另外,尽管个体特征可以被包括在不同的权利要求中,但是这些特征可以被有利地组合,并且在不同的权利要求中的包括并不意味着特征的组合是不可行的和/或不利的。在一类权利要求中对特征的包括并不意味着对该类别的限制,而是指示该特征在合适时同样适用于其他权利要求类别。此外,权利要求中的特征的顺序并不意味着特征必须工作的任何特定顺序,并且特别地,方法权利要求中的各个步骤的顺序并不意味着这些步骤必须以该顺序执行。而是,这些步骤可以以任何合适的顺序来执行。另外,单数引用不排除多个。因此,对“一”、“一个”、“第一”、“第二”等的引用不排除多个。权利要求中的附图标记仅被提供为澄清的示例,并且不应被解释为以任何方式限制权利要求的范围。