虚拟环境画面的显示方法、装置、设备及介质

文档序号:1193550 发布日期:2020-09-01 浏览:12次 >En<

阅读说明:本技术 虚拟环境画面的显示方法、装置、设备及介质 (Virtual environment picture display method, device, equipment and medium ) 是由 魏嘉城 胡勋 粟山东 于 2020-05-21 设计创作,主要内容包括:本申请公开了一种虚拟环境画面的显示方法、装置、设备及介质,涉及虚拟环境领域。该方法包括:显示第一虚拟环境画面,所述第一虚拟环境画面是以相对于第一虚拟对象的第一位置为观察中心对所述虚拟环境进行观察得到的画面;响应于所述观察中心的调整指令,将所述观察中心从相对于所述第一虚拟对象的第一位置调整为相对于所述第一虚拟对象的第二位置;显示第二虚拟环境画面,所述第二虚拟环境画面是以相对于所述第一虚拟对象的第二位置为观察中心对所述虚拟环境进行观察得到的画面。本申请可以动态改变摄像机模型的观察中心,从而满足用户自身期望的视野需求。(The application discloses a method, a device, equipment and a medium for displaying a virtual environment picture, and relates to the field of virtual environments. The method comprises the following steps: displaying a first virtual environment picture, wherein the first virtual environment picture is a picture obtained by observing the virtual environment by taking a first position relative to a first virtual object as an observation center; adjusting the center of observation from a first position relative to the first virtual object to a second position relative to the first virtual object in response to the adjustment instruction of the center of observation; and displaying a second virtual environment screen, wherein the second virtual environment screen is a screen obtained by observing the virtual environment with a second position relative to the first virtual object as an observation center. The method and the device can dynamically change the observation center of the camera model, so that the vision field requirement expected by a user can be met.)

虚拟环境画面的显示方法、装置、设备及介质

技术领域

本申请实施例涉及虚拟环境领域,特别涉及一种虚拟环境画面的显示方法、装置、设备及介质。

背景技术

对战游戏是多个用户账号在同一场景内进行竞技的游戏。可选地,对战游戏可以是多人在线战术竞技游戏(Multiplayer Online Battle Arena Games,MOBA)。

典型的MOBA游戏中存在一个三维虚拟环境,分属两个敌对阵营的多个虚拟对象在该三维虚拟环境中进行活动,以占领敌对阵营的阵地。每个用户使用客户端控制三维虚拟环境中的一个主控虚拟对象。对于任意一个客户端所显示的游戏画面,是由该主控虚拟对象对应的摄像机模型在三维虚拟环境中采集的。通常情况下,摄像机模型以该主控虚拟对象作为观察中心对三维虚拟环境进行画面采集,得到游戏画面。主控虚拟对象位于游戏画面的中央位置。

上述摄像机模型所观察的视野范围有限,并不一定是用户期望的最佳视野范围,在游戏画面中所展示的信息有限。

发明内容

本申请实施例提供了一种虚拟环境画面的显示方法、装置、设备及介质,可以使得用户可以手动调节摄像机模型所观察的视野范围,从而得到用户期望的最佳视野范围。所述技术方案如下:

根据本申请的一个方面,提供了一种虚拟环境画面的显示方法,所述方法包括:

显示第一虚拟环境画面,所述第一虚拟环境画面是以相对于第一虚拟对象的第一位置为观察中心对所述虚拟环境进行观察得到的画面;

响应于所述观察中心的调整指令,将所述观察中心从相对于所述第一虚拟对象的第一位置调整为相对于所述第一虚拟对象的第二位置;

显示第二虚拟环境画面,所述第二虚拟环境画面是以相对于所述第一虚拟对象的第二位置为观察中心对所述虚拟环境进行观察得到的画面。

根据本申请的另一方面,提供了一种虚拟环境画面的显示装置,所述装置包括:

显示模块,用于显示第一虚拟环境画面,所述第一虚拟环境画面是以相对于第一虚拟对象的第一位置为观察中心对所述虚拟环境进行观察得到的画面;

调整模块,用于响应于所述观察中心的调整指令,将所述观察中心从相对于所述第一虚拟对象的第一位置调整为相对于所述第一虚拟对象的第二位置;

所述显示模块,用于显示第二虚拟环境画面,所述第二虚拟环境画面是以相对于所述第一虚拟对象的第二位置为观察中心对所述虚拟环境进行观察得到的画面。

根据本申请的另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上方面所述的虚拟环境画面的显示方法。

根据本申请的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上方面所述的虚拟环境画面的显示方法。

本申请实施例提供的技术方案带来的有益效果至少包括:

通过响应于观察中心的调整指令,将观察中心从相对于第一虚拟对象的第一位置修改为第二位置,使得用户可以自定义摄像机模型的观察中心,从而得到满足用户自身期望的最佳视野范围,尽可能在虚拟环境画面中显示出更多的有效信息。

附图说明

为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。

图1是本申请一个示例性实施例提供的计算机系统的结构框图;

图2是本申请另一个示例性实施例提供的状态同步技术的示意图;

图3是本申请另一个示例性实施例提供的帧同步技术的示意图;

图4是本申请另一个示例性实施例提供的虚拟环境画面的显示方法的界面示意图;

图5是本申请另一个示例性实施例提供的虚拟环境画面的显示方法的界面示意图;

图6是本申请另一个示例性实施例提供的虚拟环境画面的显示方法的方法流程图;

图7是本申请另一个示例性实施例提供的摄像机模型的观察中心发生改变时的示意图;

图8是本申请另一个示例性实施例提供的虚拟环境画面的显示方法的方法流程图;

图9是本申请另一个示例性实施例提供的虚拟环境画面的显示方法的方法流程图;

图10是本申请另一个示例性实施例提供的视野调整控件对摄像机模型的锚定位置进行调整的示意图;

图11是本申请另一个示例性实施例提供的虚拟环境画面的显示方法的方法流程图;

图12是本申请另一个示例性实施例提供的虚拟环境画面的显示方法的方法流程图;

图13是本申请另一个示例性实施例提供的摄像机模型的观察中心的可调整范围的示意图;

图14是本申请另一个示例性实施例提供的摇杆在轮盘区域中的偏移值的计算示意图;

图15是本申请另一个示例性实施例提供的死区区域的示意图;

图16是本申请另一个示例性实施例提供的虚拟环境画面的显示方法的方法流程图;

图17是本申请另一个示例性实施例提供的摄像机模型在三维虚拟环境中的侧视图;

图18是本申请另一个示例性实施例提供的虚拟环境画面的显示装置的框图;

图19是本申请另一个示例性实施例提供的终端的框图。

具体实施方式

为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。

首先,对本申请实施例中涉及的名词进行简单介绍:

虚拟环境:是应用程序在终端上运行时显示(或提供)的虚拟环境。该虚拟环境可以是对真实世界的仿真世界,也可以是半仿真半虚构的三维世界,还可以是纯虚构的三维世界。虚拟环境可以是二维虚拟环境、2.5维虚拟环境和三维虚拟环境中的任意一种。可选地,该虚拟环境还用于至少两个虚拟对象之间的虚拟环境对战,在该虚拟环境中具有可供至少两个虚拟对象使用的虚拟资源。可选地,该虚拟环境包括对称的左下角区域和右上角区域,属于两个敌对阵营的虚拟对象分别占据其中一个区域,并以摧毁对方区域深处的目标建筑/据点/基地/水晶来作为胜利目标。

虚拟对象:是指在虚拟环境中的可活动对象。该可活动对象可以是虚拟人物、虚拟动物、动漫人物中的至少一种。可选地,当虚拟环境为三维虚拟环境时,虚拟对象可以是三维虚拟模型,每个虚拟对象在三维虚拟环境中具有自身的形状和体积,占据三维虚拟环境中的一部分空间。可选地,虚拟对象是基于三维人体骨骼技术构建的三维角色,该虚拟对象通过穿戴不同的皮肤来实现不同的外在形象。在一些实现方式中,虚拟对象也可以采用2.5维或2维模型来实现,本申请实施例对此不加以限定。

多人在线战术竞技是指:在虚拟环境中,分属至少两个敌对阵营的不同虚拟队伍分别占据各自的地图区域,以某一种胜利条件作为目标进行竞技。该胜利条件包括但不限于:占领据点或摧毁敌对阵营据点、击杀敌对阵营的虚拟对象、在指定场景和时间内保证自身的存活、抢夺到某种资源、在指定时间内比分超过对方中的至少一种。战术竞技可以以局为单位来进行,每局战术竞技的地图可以相同,也可以不同。每个虚拟队伍包括一个或多个虚拟对象,比如1个、2个、3个或5个。

MOBA游戏:是一种在虚拟环境中提供若干个据点,处于不同阵营的用户控制虚拟对象在虚拟环境中对战,占领据点或摧毁敌对阵营据点的游戏。例如,MOBA游戏可将用户分成两个敌对阵营,将用户控制的虚拟对象分散在虚拟环境中互相竞争,以摧毁或占领敌方的全部据点作为胜利条件。MOBA游戏以局为单位,一局MOBA游戏的持续时间是从游戏开始的时刻至达成胜利条件的时刻。

用户界面UI(User Interface)控件,在应用程序的用户界面上能够看见(不排除不显示显示)的任何可视控件或元素,比如,图片、输入框、文本框、按钮、标签等控件,其中一些UI控件响应用户的操作,比如,技能控件,控制第一虚拟对象释放技能。用户触发技能控件,控制第一虚拟对象释放技能。

图1给出了本申请一个示例性实施例提供的计算机系统的结构框图。该计算机系统100包括:第一终端110、服务器120、第二终端130。

第一终端110安装和运行有支持虚拟环境的客户端111,该客户端111可以是多人在线对战程序。当第一终端运行客户端111时,第一终端110的屏幕上显示客户端111的用户界面。该客户端可以是军事仿真程序、大逃杀射击游戏、虚拟现实(Virtual Reality,VR)应用程序、增强现实(Augmented Reality,AR)程序、三维地图程序、虚拟现实游戏、增强现实游戏、第一人称射击游戏(First-person shooting game,FPS)、第三人称射击游戏(Third-Personal Shooting Game,TPS)、多人在线战术竞技游戏(Multiplayer Online BattleArena Games,MOBA)、策略游戏(Simulation Game,SLG)中的任意一种。在本实施例中,以该客户端是MOBA游戏来举例说明。第一终端110是第一用户112使用的终端,第一用户112使用第一终端110控制位于虚拟环境中的第一虚拟对象进行活动,第一虚拟对象可以称为第一用户112的第一虚拟对象。第一虚拟对象的活动包括但不限于:调整身体姿态、爬行、步行、奔跑、骑行、飞行、跳跃、驾驶、拾取、射击、攻击、投掷中的至少一种。示意性的,第一虚拟对象是第一虚拟人物,比如仿真人物角色或动漫人物角色。

第二终端130安装和运行有支持虚拟环境的客户端131,该客户端131可以是多人在线对战程序。当第二终端130运行客户端131时,第二终端130的屏幕上显示客户端131的用户界面。该客户端可以是军事仿真程序、大逃杀射击游戏、VR应用程序、AR程序、三维地图程序、虚拟现实游戏、增强现实游戏、FPS、TPS、MOBA、SLG中的任意一种,在本实施例中,以该客户端是MOBA游戏来举例说明。第二终端130是第二用户113使用的终端,第二用户113使用第二终端130控制位于虚拟环境中的第二虚拟对象进行活动,第二虚拟对象可以称为第二用户113的第一虚拟对象。示意性的,第二虚拟对象是第二虚拟人物,比如仿真人物角色或动漫人物角色。

可选地,第一虚拟人物和第二虚拟人物处于同一虚拟环境中。可选地,第一虚拟人物和第二虚拟人物可以属于同一个阵营、同一个队伍、同一个组织、具有好友关系或具有临时性的通讯权限。可选的,第一虚拟人物和第二虚拟人物可以属于不同的阵营、不同的队伍、不同的组织或具有敌对关系。

可选地,第一终端110和第二终端130上安装的客户端是相同的,或两个终端上安装的客户端是不同操作系统平台(安卓或IOS)上的同一类型客户端。第一终端110可以泛指多个终端中的一个,第二终端130可以泛指多个终端中的另一个,本实施例仅以第一终端110和第二终端130来举例说明。第一终端110和第二终端130的设备类型相同或不同,该设备类型包括:智能手机、平板电脑、电子书阅读器、MP3播放器、MP4播放器、膝上型便携计算机和台式计算机中的至少一种。

图1中仅示出了两个终端,但在不同实施例中存在多个其它终端140可以接入服务器120。可选地,还存在一个或多个终端140是开发者对应的终端,在终端140上安装有支持虚拟环境的客户端的开发和编辑平台,开发者可在终端140上对客户端进行编辑和更新,并将更新后的客户端安装包通过有线或无线网络传输至服务器120,第一终端110和第二终端130可从服务器120下载客户端安装包实现对客户端的更新。

第一终端110、第二终端130以及其它终端140通过无线网络或有线网络与服务器120相连。

服务器120包括一台服务器、多台服务器、云计算平台和虚拟化中心中的至少一种。服务器120用于为支持三维虚拟环境的客户端提供后台服务。可选地,服务器120承担主要计算工作,终端承担次要计算工作;或者,服务器120承担次要计算工作,终端承担主要计算工作;或者,服务器120和终端之间采用分布式计算架构进行协同计算。

在一个示意性的例子中,服务器120包括处理器122、用户账号数据库123、对战服务模块124、面向用户的输入/输出接口(Input/Output Interface,I/O接口)125。其中,处理器122用于加载服务器121中存储的指令,处理用户账号数据库123和对战服务模块124中的数据;用户账号数据库123用于存储第一终端110、第二终端130以及其它终端140所使用的用户账号的数据,比如用户账号的头像、用户账号的昵称、用户账号的战斗力指数,用户账号所在的服务区;对战服务模块124用于提供多个对战房间供用户进行对战,比如1V1对战、3V3对战、5V5对战等;面向用户的I/O接口125用于通过无线网络或有线网络和第一终端110和/或第二终端130建立通信交换数据。

服务器120可以采用同步技术使得多个客户端之间的画面表现一致。示例性的,服务器120采用的同步技术包括:状态同步技术或帧同步技术。

状态同步技术

在基于图1的可选实施例中,服务器120采用状态同步技术与多个客户端之间进行同步。在状态同步技术中,如图2所示,战斗逻辑运行在服务器120中。当虚拟环境中的某个虚拟对象发生状态变化时,由服务器120向所有的客户端,比如客户端1至10,发送状态同步结果。

在一个示例性的例子中,客户端1向服务器120发送请求,该请求用于请求虚拟对象1释放霜冻技能,则服务器120判断该霜冻技能是否允许释放,以及在允许释放该霜冻技能时,对其他虚拟对象2的伤害值是多少。然后,服务器120将技能释放结果发送给所有的客户端,所有的客户端根据技能释放结果更新本地数据以及界面表现。

帧同步技术

在基于图1的可选实施例中,服务器120采用帧同步技术与多个客户端之间进行同步。在帧同步技术中,如图3所示,战斗逻辑运行在各个客户端中。每个客户端会向服务器发送帧同步请求,该帧同步请求中携带有客户端本地的数据变化。服务器120在接收到某个帧同步请求后,向所有的客户端转发该帧同步请求。每个客户端接收到帧同步请求后,按照本地的战斗逻辑对该帧同步请求进行处理,更新本地数据以及界面表现。

结合上述对虚拟环境的介绍以及实施环境说明,对本申请实施例提供的虚拟环境画面的显示方法进行说明,以该方法的执行主体为图1所示出的终端上运行的客户端来举例说明。该终端运行有客户端,该客户端是支持虚拟环境的应用程序。

结合参考图4,在基于虚拟环境的竞技过程中,客户端显示有用户界面。示意性的用户界面包括:虚拟环境画面22和HUD(Head Up Display,抬头显示)面板24。虚拟环境画面22是采用虚拟对象26对应的视角对虚拟环境进行观察得到的画面。HUD面板24包括有多个人机交互控件,比如移动控件、三个或四个技能释放控件和攻击按钮等。

示意性的,每个虚拟对象在虚拟环境中存在一一对应的摄像机模型。图4中的虚拟对象26对应有摄像机模型28。摄像机模型28的观察中心(或焦点)是虚拟对象26,观察中心是摄像机模型28沿着观察方向所射出的中心线与虚拟环境的交点,也称摄像机模型28的焦点。位于观察中心的物体在摄像机模型28所采集的虚拟环境画面中,位于虚拟环境画面的中心位置。当虚拟对象26在虚拟环境中移动时,摄像机模型28在虚拟环境中的三维坐标(也称锚点位置)也会跟随虚拟对象26的移动而移动。摄像机模型28相对于虚拟对象26具有镜头高度。摄像机模型28以倾斜角度(比如45度)向下俯视虚拟对象26。

摄像机模型28在虚拟环境中采集到的画面,即为客户端上显示的虚拟环境画面22。

本申请实施例提供了一种对摄像机模型28的锚点进行动态改变的方案,从而实现对虚拟环境画面22的视野进行动态改变,更加符合用户的期望。

在如图5所示的示例中,终端显示用户界面,用户界面包括虚拟环境画面和叠加在虚拟环境画面上的人机交互控件。人机交互控件包括:视野调整控件32、移动方向控件34、技能释放控件36和攻击控件38,如图5中的(a)所示。在默认情况下,虚拟环境画面是摄像机模型28以虚拟对象26所在的第一位置为观察中心,在虚拟环境中采集的画面。当用户希望改变视野时,按压视野调整控件32。视野调整控件32会从较小的眼睛显示形态,变为较大的轮盘显示形态,如图5中的(b)所示。在轮盘显示形态下,视野调整控件32包括轮盘区域和位于轮盘区域中央的摇杆。其中,摇杆对应摄像机模型28的锚点位置,轮盘区域对应摄像机模型28的锚点位置的可调节范围。示例性的,该可调节范围是圆形范围。

示例性的,用户拖动摇杆在轮盘区域中改变位置时,摄像机模型28在虚拟环境中的锚点位置也会发生变化。在改变锚点位置后,摄像机模型28的观察中心将会从虚拟对象26所在的第一位置切换为相对于虚拟对象26存在偏移的第二位置。第二位置相对于第一位置的位置关系,与摇杆相对于轮盘区域的中心位置的位置关系对应,如图5中的(c)所示。

当用户的手指松开后,摄像机模型28会按照相对于虚拟对象26存在偏移的第二位置作为观察中心,采集虚拟环境中的画面,如图5中的(d)所示。由于虚拟环境26的位置可能会一直发生改变,则相对于虚拟对象26存在偏移的第二位置也会一直发生改变。

整个过程的操作可以包括如下步骤:

点击摇杆:

用户点击视野调整控件上的摇杆,在用户的手指按下时,摄像机模型的锚点位置回到默认位置。默认位置是用户控制的第一虚拟对象处于屏幕中心时的锚点位置。

拖动摇杆:

1、在用户拖动视野调整控件上的摇杆时,摄像机模型的锚点位置会从默认位置开始偏移。在用户的手指抬起后,摄像机模型的锚点位置停留在最后的偏移位置。

2、用户拖动摇杆所改变的是摄像机模型的锚点位置与第一虚拟对象的相对位置,也即摄像机模型的锚点位置是与第一虚拟对象所绑定的。当第一虚拟对象发生移动时,摄像机模型的锚点位置也会发生移动。

图6示出了本申请一个示例性实施例提供的虚拟环境画面的显示方法的流程图。本实施例以该方法应用于客户端中来举例说明。该方法包括:

步骤602,显示第一虚拟环境画面,第一虚拟环境画面是以相对于第一虚拟对象的第一位置为观察中心对虚拟环境进行观察得到的画面;

第一虚拟对象是由客户端控制的虚拟对象,但不排除第一虚拟对象是由其它客户端或人工智能模块控制的可能性。客户端根据接收到的用户操作(或称人机操作)控制第一虚拟对象在虚拟环境中的活动。示例性的,第一虚拟对象在虚拟环境中的活动包括:行走、跑动、跳跃、攀爬、趴下、攻击、释放技能、捡拾道具、发送消息中的至少一种。

第一虚拟环境画面是摄像机模型以相对于第一虚拟对象的第一位置为观察中心对虚拟环境进行观察得到的画面。可选地,摄像机模型相对于第一虚拟对象还具有一定的镜头高度。虚拟环境画面是对三维虚拟环境进行画面采集后,显示在客户端上的二维画面。示例性的,虚拟环境画面的形状根据终端的显示屏的形状来确定,或,根据客户端的用户界面的形状确定。以终端的显示屏是矩形为例,虚拟环境画面也显示为矩形画面。

虚拟环境中设置有与第一虚拟对象绑定的摄像机模型。第一虚拟环境画面是该摄像机模型以虚拟环境中的某个观察位置为观察中心所拍摄的画面。在采集第一虚拟环境画面时,观察中心是相对于第一虚拟对象的第一位置。比如,该第一位置是第一虚拟对象所在的位置。以第一虚拟环境画面是矩形画面为例,在第一虚拟环境画面中矩形对角线的交点即为位于观察中心的物体。

通常情况下,与第一虚拟对象绑定的摄像机模型是以第一虚拟对象所在的位置作为观察中心的,则第一虚拟对象在虚拟环境中所在的位置即为第一位置。当虚拟环境是三维虚拟环境时,观察中心是第一虚拟对象在虚拟环境中的三维坐标。示例性的,若虚拟环境中的地面是水平面,则观察中心的高度坐标为0,则可以将观察中心近似的表示为水平面上的二维坐标。

步骤604,响应于观察中心的调整指令,将观察中心从相对于第一虚拟对象的第一位置调整为相对于第一虚拟对象的第二位置;

调整指令是用于调整观察中心的指令。调整指令是由用户触发的,但不排除调整指令是终端中的人工智能(Artificial Intelligence,AI)自动触发的可能性,或者由服务器发送的可能性。

当终端是具有触摸屏的电子设备时,调整指令可以是在触摸屏上的触摸操作触发的指令;当终端是具有手柄外设的电子设备时,调整指令可以是在手柄物理按键上触发的指令;当终端是VR或AR时,调整指令可以是由用户的眼睛或语音触发的指令,本申请实施例对调整指令的触发方式不加以限定。

示例性的,第一位置是第一虚拟对象所在的位置,或者,第一位置是相对于第一虚拟对象所在的位置存在第一偏移的位置。

示例性的,第二位置是相对于第一虚拟对象所在的位置存在第二偏移的位置。通常情况下,第一位置和第二位置不同。

由于第一虚拟对象的位置是动态改变的,因此相对于第一虚拟对象的第二位置也是跟随第一虚拟对象的位置的改变而改变的。

步骤606,显示第二虚拟环境画面,第二虚拟环境画面是以相对于第一虚拟对象的第二位置为观察中心对虚拟环境进行观察得到的画面;

由于第一虚拟环境画面和第二虚拟环境画面的观察中心不同,因此第一虚拟环境画面和第二虚拟环境画面的视野不同。

示意性的如图7所示,在第一虚拟环境画面中,画面中心为相对于第一虚拟对象的第一位置72,第一位置72是第一虚拟对象所在的位置,此时第一虚拟对象位于画面中心中;在第二虚拟环境画面中,画面中心为相对于第一虚拟对象的第二位置74,第二位置74是沿右上方向相对于第一虚拟对象存在第二偏移的位置,此时第一虚拟对象位于画面中心的左下角,用户在第一虚拟对象的右上方的视野变大,左下方的视野变小。

综上所述,本实施例提供的方法,通过响应于观察中心的调整指令,将观察中心从相对于第一虚拟对象的第一位置修改为第二位置,使得用户可以自定义摄像机模型的观察中心,从而得到满足用户自身期望的最佳视野范围,尽可能在虚拟环境画面中显示出更多的有效信息。

上述调整指令可以由用户对显示在触摸显示屏上的视野调整控件上的拖动操作触发。

图8示出了本申请另一个示例性实施例提供的虚拟环境画面的显示方法的流程图。该方法可以由图1所示的客户端来执行。该方法包括:

步骤802,显示第一用户界面,第一用户界面包括第一虚拟环境画面和视野调整控件,第一虚拟环境画面是以相对于第一虚拟对象的第一位置为观察中心对虚拟环境进行观察得到的画面;

客户端显示第一用户界面,第一用户界面包括:摄像机模型采集到的第一虚拟环境画面90,以及叠加在第一虚拟环境画面上的视野调整控件32。

虚拟环境中设置有与第一虚拟对象绑定的摄像机模型。第一虚拟环境画面是该摄像机模型以第一虚拟对象所在的位置作为观察中心的,则第一虚拟对象在虚拟环境中所在的位置即为第一位置。

示例性的,当虚拟环境是三维虚拟环境时,观察中心是第一虚拟对象在虚拟环境中的三维坐标。示例性的,若虚拟环境中的地面是水平面,则观察中心的高度坐标为0,则可以将观察中心近似的表示为水平面上的二维坐标。

可选地,视野调整控件32包括:轮盘区域a和摇杆b。轮盘区域a是一个圆形区域,摇杆b是一个圆形按钮。摇杆b的面积小于轮盘区域a的面积。在未接收到用户的拖动操作的情况下,摇杆b显示在轮盘区域a的中心。在接收到用户的拖动操作的情况下,摇杆b可以在轮盘区域a的圆形区域范围内改变位置。

其中,摇杆b对应摄像机模型的观察中心(也即摄像机模型的锚点位置),轮盘区域a对应摄像机模型的默认观察中心,比如第一虚拟对象所在的位置,轮盘区域a的圆形区域范围对应摄像机模型的观察中心的可调整范围。

步骤804,响应于将摇杆在轮盘区域中进行拖动时触发的拖动指令,根据拖动后的摇杆在轮盘区域中的位置,将观察中心从相对于第一虚拟对象的第一位置调整为相对于第一虚拟对象的第二位置;

由于轮盘区域a对应摄像机模型的默认观察中心,轮盘区域a的圆形区域范围对应摄像机模型的观察中心的可调整范围。因此,当客户端接收到用户的拖动操作后,响应于将摇杆在轮盘区域中进行拖动时触发的拖动指令,根据拖动后的摇杆在轮盘区域中的位置,将观察中心从相对于第一虚拟对象的第一位置调整为相对于第一虚拟对象的第二位置。具体包括如下步骤S1至S5,如图9所示:

S1,响应于将摇杆在轮盘区域中进行拖动时触发的拖动指令,计算拖动后的摇杆在轮盘区域中的位置相对于轮盘区域的中心位置的轮盘横向偏移值和轮盘纵向偏移值;

参考图10所示,假设拖动后的摇杆在轮盘区域中的位置为P2,轮盘区域的中心位置为P1,则轮盘横向偏移值为(P2-P1)在水平方向上的投影长度(P2-P1).x,轮盘纵向偏移值为(P2-P1)在竖直方向上的投影长度(P2-P1).z。

其中,轮盘横向偏移值和轮盘纵向偏移值是在UI层上的二维偏移,而摄像机模型处于三维虚拟环境中,需要将二维偏移映射成三维偏移。

参考图10所示,三维虚拟环境中设置有x轴、y轴和z轴。其中,y轴对应摄像机模型的镜头高度。在本实施例中,设定轮盘横向偏移值对应摄像机模型在x轴上的偏移值,轮盘纵向偏移值对应摄像机模型在z轴上的偏移值,两者均不影响摄像机模型在y轴上的位置。也即,摄像机模型的镜头高度为固定值,或者按照其它方式进行调节,但与本实施例中的调整逻辑无关。

S2,根据轮盘横向偏移值确定出第一摄像机偏移值,根据轮盘纵向偏移值确定出第二摄像机偏移值;

第一摄像机偏移值是摄像机模型在x轴上的偏移值,第二摄像机偏移值是摄像机模型在z轴上的偏移值。X轴和z轴是与虚拟环境中的地平面平行的两个坐标轴,且x轴垂直于z轴。

可选地,轮盘横向偏移距离和第一摄像机偏移值呈正相关关系;轮盘纵向偏移距离和第二摄像机偏移值呈正相关关系。比如,轮盘横向偏移距离和第一摄像机偏移值呈正比例关系;轮盘纵向偏移距离和第二摄像机偏移值呈正比例关系。

S3,以第一虚拟对象在虚拟环境中所在的位置为基准,计算出第一虚拟对象对应的摄像机模型的第一锚点位置;

第一锚点位置跟随第一虚拟对象的位置的移动而移动。

可选地,第一锚点位置是以摄像机模型的观察中心是第一虚拟对象时,摄像机模型在虚拟环境中的三维坐标。

S4,按照第一摄像机偏移值和第二摄像机偏移值对第一锚点位置进行偏移,计算得到摄像机模型的第二锚点位置;

按照第一摄像机偏移值对第一锚点位置在x轴上进行偏移,按照第二摄像机偏移值对第一锚点位置在z轴上进行偏移,计算得到摄像机模型的第二锚点位置。

S5,根据第二锚点位置对摄像机模型进行偏移,偏移后的摄像机模型的观察中心是相对于第一虚拟对象的第二位置。

S6,响应于第一虚拟对象在虚拟环境中所在的位置发生变化,再次执行按照第一摄像机偏移值和第二摄像机偏移值对第一锚点位置进行偏移,计算得到摄像机模型的第二锚点位置的步骤。

由于第一虚拟对象可以在三维虚拟环境中活动,当第一虚拟对象在三维虚拟环境中所在的位置发生变化时,客户端再次执行以第一虚拟对象在虚拟环境中所在的位置为基准,按照偏移方向和第二偏移距离计算得到相对于第一虚拟对象的第二位置的步骤。

摄像机模型的观察中心(相对于第一虚拟对象的第二位置),仍然会跟随第一虚拟对象所在的位置动态发生变化。

在本次调整结束至下次调整(手动或开局自动调整)之前,摄像机模型的观察中心保持为第二位置,也即摄像机模型持续按照相对于第一虚拟对象的第二位置作为观察中心进行画面采集。

步骤806,显示第二用户界面,第二用户界面包括第二虚拟环境画面和视野调整控件,第二虚拟环境画面是以相对于第一虚拟对象的第二位置为观察中心对虚拟环境进行观察得到的画面;

在调整观察中心为第二位置后,摄像机模型以相对于第一虚拟对象的第二位置为观察中心对虚拟环境进行观察,得到第二虚拟环境画面。客户端还在第二虚拟环境画面上叠加显示视野调整控件,从而显示出第二用户界面。

可选地,若视野调整控件是不透明的,则第二虚拟环境画面中被遮挡的区域无需显示;若视野调整控件是透明或半透明的,则第二虚拟环境画面中被遮挡的区域和视野调整控件叠加为融合图像进行显示。

由于第一虚拟环境画面和第二虚拟环境画面的观察中心不同,因此第一虚拟环境画面和第二虚拟环境画面的视野不同。

综上所述,本实施例提供的方法,通过采用摇杆在二维平面上的轮盘偏移信息,计算得到摄像机模型在三维环境中的偏移信息,使得视野调整控件的摇杆变化和摄像机模型的三维偏移是正相关关系,达到“所见即所得”的操作效果。

在基于图8的可选实施例中,拖动指令包括:按照时间排序的至少两个子指令。典型的拖动指令包括:按照时间排序的一个触摸开始子指令,多个触摸移动子指令和一个触摸结束子指令,每个子指令中携带有用户在触摸屏上的实时触摸坐标。其中,触摸开始子指令可视为是第一个子指令,触摸结束子指令可视为是最后一个子指令。如图11所述,所述方法还包括:

步骤803a,响应于接收到拖动指令中的第一个子指令,将视野调整控件从默认显示形态切换为轮盘显示形态,轮盘显示形态包括摇杆和轮盘区域;

其中,默认显示形态的显示面积小于轮盘显示形态的显示面积。

可选地,默认显示形态是一个较小的眼睛按钮。该较小的眼睛按钮不会遮挡第二虚拟环境画面上的太多画面内容。

步骤805,响应于接收到拖动指令中的最后一个子指令,将视野调整控件从轮盘显示形态切换为默认显示形态。

综上所述,本实施例提供的方法,通过为视野调整控件提供两种显示形态,在默认显示形态下的视野调整控件具有较小的显示面积,可以减少对虚拟环境画面中的画面内容的影响。

在基于图8的可选实施例中,由于用户在一局对战中,可能会多次调整摄像机模型的观察中心,为了保证每次调整过程的操作一致性。如图12所示,所述方法还包括:

步骤803b,响应于接收到拖动指令中的第一个子指令,将观察中心复位为第一虚拟对象在虚拟环境中所在的位置。

客户端在视野调整控件上接收到拖动操作时,视野调整控件上触发拖动指令。该拖动指令包括:按照时间排序的触摸开始子指令,多个触摸移动子指令和一个触摸结束子指令,每个子指令中携带有用户在触摸屏上的实时触摸坐标。

响应于接收到触摸开始子指令,客户端将观察中心复位为第一虚拟对象在虚拟环境中所在的位置。也即,客户端将摄像机模型在虚拟环境中的坐标,复位为第一锚点位置。

综上所述,本实施例提供方法,通过在开始接收到视野调整控件上的拖动指令时,将观察中心复位为第一虚拟对象在虚拟环境中所在的位置,实现了用户在每次调整观察中心时,都能获得一致的操作感受,从而快速准确地将观察中心调整到自身期望的位置。

在一个可选的实施例中,摄像机模型的观察中心的调整范围是存在上限的。

如图13所示,客户端会设置摄像机模型的观察中心在上、下、左、右四个方向上的最大偏移值:UP、DOWN、LEFT、RIGHT。UP是在上方向上的最大偏移值,DOWN是在下方向上的最大偏移值,LEFT是在左方向上的最大偏移值,RIGHT是在右方向上的最大偏移值。

在视野调整控件采用轮盘控件实现时,轮盘控件包括:轮盘区域和位于轮盘区域上的摇杆。摇杆在轮盘区域上的位置(相对于轮盘中心的偏移位置),对应摄像机模型的观察中心(相对于第一虚拟对象的偏移位置)。轮盘区域的圆形区域范围对应观察中心的最大可调节范围。轮盘区域上的每个位置,与观察中心在虚拟环境中的最大可调节范围“一一对应”。

在一个可选的实施例中,摄像机模型的锚点位置的计算方式如下:

如图14所示,设摇杆与水平方向的夹角为α,摇杆与轮盘区域的圆形的距离为A,轮盘区域的圆形的半径为B。若摇杆向左上角偏移,则摄像机模型的锚点位置也按照同样的角度从默认锚点位置向左上角偏移。

摄像机模型的向左偏移量=cosα*LEFT*(A/B);

摄像机模型的向上偏移量=sinα*UP*(A/B)。

在一个可选的实施例中,首先定义如下三个变量:

CameraOffset:用来衡量摄像机模型的观察中心相对于第一虚拟对象的偏移值。摄像机模型的控制模块会读取这个值,在摄像机模型跟随第一虚拟对象的逻辑中会加上这个偏移值,从而达到摄像机模型的观察中心发生偏移的功能。

IsMoved:用来区分用户对摇杆的操作是点击操作还是拖动操作。当用户按压摇杆按钮时,将其置为否(false);当用户对摇杆的拖动距离超过死区区域时,将其置为true。

DeadZone(死区):由策划配置的,用于在轮盘区域中区分摇杆上的触摸操作是点击操作,还是拖动操作的拖动距离的阈值,示意性的如图15所示,死区的边缘如虚线圆圈40所示。

如图16所示,上述虚拟环境画面的显示方法包括如下步骤:

步骤1601,视野调节控件的摇杆被按下;

用户按下视野调节控件的摇杆,在触摸屏上触发生成触摸开始事件。该触摸开始子事件,携带有用户在触摸屏上的按压位置的二维坐标。

步骤1602,摄像机模型的偏移值复位为零;

客户端将摄像机模型的偏移值CameraOffset复位为零。这样就会清除上一次的摄像机模型的偏移数值。

步骤1603,IsMoved=false;

客户端将IsMoved的取值设置为false。

步骤1604,视野调节控件的摇杆被拖动;

用户拖动视野调节控件的摇杆,在触摸屏上不断触发(按照触摸的上报频率来定)触摸移动事件。每个触摸移动事件携带有用户在触摸屏上的触摸位置的二维坐标。

步骤1605,将拖动后的摇杆所在的位置赋值为P2;

客户端将拖动后的摇杆在触摸屏上所在的二维坐标,赋值为P2。

步骤1606,判断|P2-P1|是否大于或等于死区半径,且IsMoved==true;

P1是轮盘区域的中心点在触摸屏上所在的二维坐标。

在用户拖动摇杆的过程中,客户端判断拖动后的摇杆位置相对于轮盘区域的中心点的位移|P2-P1|是否达到了死区阈值。也即|P2-P1|是否≥deadZone。

若拖动距离达到了死区阈值,则执行步骤1607;若拖动距离未达到死区阈值,则保持IsMoved=true。

步骤1607,IsMoved=true;

客户端将IsMoved的取值设置为true。

步骤1608,以向量(P2-P1),计算摄像机模型的偏移值。

首先客户端读取五个预设值:

LEFT:在左方向上的最大偏移值;

RIGHT:在右方向上的最大偏移值;

DOWN:在下方向上的最大偏移值;

UP:在上方向上的最大偏移值;

MAX_RADIUS:摇杆在轮盘区域中的最大拖动距离。

因为在用户界面(UI)层是二维平面,(P2-P1)是二维向量,而摄像机模型的锚点位置是在三维场景中,所以摄像机模型的偏移向量是三维向量。假设保持摄像机模型的镜头高度不变,因此需要将摄像机模型的锚点位置中的y坐标偏移分量(对应镜头高度的坐标分量)固定0,然后用以下步骤计算镜头偏移:

1.计算(P2-P1)的长度为length,

2.计算摄像机模型在x轴(水平方向)上的偏移值cameraOffset.x的公式为下

如果(p2-p1).x>0,表示是向右偏移;

cameraOffset.x=(p2-p1).x/MAX_RADIUS*RIGHT;

其他情况,表示向左偏移;

cameraOffset.x=(p2-p1).x/MAX_RADIUS*LEFT。

3.计算摄像机模型在z轴(水平方向)上的偏移值cameraOffset.z的公式如下:

如果(p2-p1).z>0,表示是向上偏移;

cameraOffset.z=(p2-p1).y/MAX_RADIUS*UP;

其他情况,表示向左偏移;

cameraOffset.z=(p2-p1).y/MAX_RADIUS*DOWN。

结合参考图16,从图中可以看出,客户端一般会配置一个高度height用来作为第一虚拟对象actor与摄像机模型之间的高度距离,以及配置一个倾斜角度angel用来作为摄像机模型向下观察的角度。然后客户端通过第一虚拟对象的当前位置计算出摄像机模型的默认锚点位置。由于游戏的设定,摄像机相对于第一虚拟角色的x轴并不会变化,只需要变化y与z轴,所以摄像机模型在虚拟环境中的计算公式(跟随第一虚拟对象)如下:

cameraPos.x=ActorPos.x;

cameraPos.y=ActorPos.y+height*cos(angle);

camearPos.z=ActorPos.z–height*san(angle);

在计算出摄像机模型的默认锚点位置cameraPos之后,将上述计算出的偏移值(cameraOffset.x,cameraOffset.z)加上cameraPos后,就得到了摄像机模型的最终锚点位置,也达到了对摄像机模型的镜头偏移效果。

cameraPos=cameraPos+cameraOffset。

其中,三维虚拟环境中的x轴,y轴,z轴的设置方式如图4中所示。

图18示出了本申请一个示意性实施例提供的虚拟环境画面的显示装置的框图。该装置包括:

显示模块1820,用于显示第一虚拟环境画面,所述第一虚拟环境画面是以相对于第一虚拟对象的第一位置为观察中心对所述虚拟环境进行观察得到的画面;

调整模块1840,用于响应于所述观察中心的调整指令,将所述观察中心从相对于所述第一虚拟对象的第一位置调整为相对于所述第一虚拟对象的第二位置;

所述显示模块1820,用于显示第二虚拟环境画面,所述第二虚拟环境画面是以相对于所述第一虚拟对象的第二位置为观察中心对所述虚拟环境进行观察得到的画面。

在本申请的一个可选的实施例中,所述第一虚拟环境画面上显示有视野调整控件,所述视野调整控件包括摇杆和轮盘区域,所述摇杆位于所述轮盘区域中;

所述调整模块1840,还用于响应于将所述摇杆在所述轮盘区域中进行拖动时触发的拖动指令,根据拖动后的所述摇杆在所述轮盘区域中的位置,将所述观察中心从相对于所述第一虚拟对象的第一位置调整为相对于所述第一虚拟对象的第二位置。

在本申请的一个可选的实施例中,所述调整模块1840,还用于响应于将所述摇杆在所述轮盘区域中进行拖动时触发的拖动指令,计算拖动后的所述摇杆在所述轮盘区域中的位置相对于所述轮盘区域的中心位置的轮盘横向偏移值和轮盘纵向偏移值;

根据所述轮盘横向偏移值确定出第一摄像机偏移值,根据所述轮盘纵向偏移值确定出第二摄像机偏移值;

以所述第一虚拟对象在所述虚拟环境中所在的位置为基准,计算出所述第一虚拟对象对应的摄像机模型的第一锚点位置;

按照所述第一摄像机偏移值和所述第二摄像机偏移值对所述第一锚点位置进行偏移,计算得到所述摄像机模型的第二锚点位置;

根据所述第二锚点位置对所述摄像机模型进行偏移,偏移后的所述摄像机模型的所述观察中心是相对于所述第一虚拟对象的第二位置。

在本申请的一个可选的实施例中,所述轮盘横向偏移距离和所述第一摄像机偏移值呈正相关关系;

所述轮盘纵向偏移距离和所述第二摄像机偏移值呈正相关关系。

在本申请的一个可选的实施例中,所述调整模块1840,还用于响应于所述第一虚拟对象在所述虚拟环境中所在的位置发生变化,再次执行所述以所述第一虚拟对象在所述虚拟环境中所在的位置为基准,按照所述偏移方向和所述第二偏移距离计算得到相对于所述第一虚拟对象的第二位置。

在本申请的一个可选的实施例中,所述拖动指令包括:按照时间排序的至少两个子指令,所述调整模块1840,还用于响应于接收到所述拖动指令中的第一个子指令,将所述观察中心复位为所述第一虚拟对象在所述虚拟环境中所在的位置。

在本申请的一个可选的实施例中,所述拖动指令包括:按照时间排序的至少两个子指令,所述显示模块1820,还用于响应于接收到所述拖动指令中的第一个子指令,将所述视野调整控件从默认显示形态切换为轮盘显示形态,所述轮盘显示形态包括所述摇杆和所述轮盘区域;

其中,所述默认显示形态的显示面积小于所述轮盘显示形态的显示面积。

需要说明的是:上述实施例提供的虚拟环境画面的显示装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的虚拟环境画面的显示装置与虚拟环境画面的显示方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。

本申请还提供了一种计算机设备(终端或服务器),该计算机设备包括处理器和存储器,存储器中存储有至少一条指令,至少一条指令由处理器加载并执行以实现上述各个方法实施例提供的虚拟环境画面的显示方法。需要说明的是,该计算机设备可以是如下图19所提供的计算机设备。

图19示出了本申请一个示例性实施例提供的计算机设备1900的结构框图。该计算机设备1900可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts GroupAudio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture ExpertsGroup Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。计算机设备1900还可能被称为用户设备、便携式计算机设备、膝上型计算机设备、台式计算机设备等其他名称。

通常,计算机设备1900包括有:处理器1901和存储器1902。

处理器1901可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1901可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1901也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1901可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1901还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。

存储器1902可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1902还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1902中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1901所执行以实现本申请中方法实施例提供的虚拟环境画面的显示方法。

在一些实施例中,计算机设备1900还可选包括有:***设备接口1903和至少一个***设备。处理器1901、存储器1902和***设备接口1903之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口1903相连。具体地,***设备包括:射频电路1904、触摸显示屏1905、摄像头1906、音频电路1907、定位组件1908和电源1909中的至少一种。

***设备接口1903可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器1901和存储器1902。在一些实施例中,处理器1901、存储器1902和***设备接口1903被集成在同一芯片或电路板上;在一些其他实施例中,处理器1901、存储器1902和***设备接口1903中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。

射频电路1904用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1904通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1904将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1904包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1904可以通过至少一种无线通信协议来与其它计算机设备进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1904还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。

显示屏1905用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1905是触摸显示屏时,显示屏1905还具有采集在显示屏1905的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1901进行处理。此时,显示屏1905还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1905可以为一个,设置计算机设备1900的前面板;在另一些实施例中,显示屏1905可以为至少两个,分别设置在计算机设备1900的不同表面或呈折叠设计;在再一些实施例中,显示屏1905可以是柔性显示屏,设置在计算机设备1900的弯曲表面上或折叠面上。甚至,显示屏1905还可以设置成非矩形的不规则图形,也即异形屏。显示屏1905可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(OrganicLight-Emitting Diode,有机发光二极管)等材质制备。

摄像头组件1906用于采集图像或视频。可选地,摄像头组件1906包括前置摄像头和后置摄像头。通常,前置摄像头设置在计算机设备的前面板,后置摄像头设置在计算机设备的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1906还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。

音频电路1907可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1901进行处理,或者输入至射频电路1904以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在计算机设备1900的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1901或射频电路1904的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1907还可以包括耳机插孔。

定位组件1908用于定位计算机设备1900的当前地理位置,以实现导航或LBS(Location Based Service,基于位置的服务)。定位组件1908可以是基于美国的GPS(Global Positioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。

电源1909用于为计算机设备1900中的各个组件进行供电。电源1909可以是交流电、直流电、一次性电池或可充电电池。当电源1909包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。

在一些实施例中,计算机设备1900还包括有一个或多个传感器1910。该一个或多个传感器1910包括但不限于:加速度传感器1911、陀螺仪传感器1912、压力传感器1913、指纹传感器1914、光学传感器1915以及接近传感器1916。

加速度传感器1911可以检测以计算机设备1900建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1911可以用于检测重力加速度在三个坐标轴上的分量。处理器1901可以根据加速度传感器1911采集的重力加速度信号,控制触摸显示屏1905以横向视图或纵向视图进行用户界面的显示。加速度传感器1911还可以用于游戏或者用户的运动数据的采集。

陀螺仪传感器1912可以检测计算机设备1900的机体方向及转动角度,陀螺仪传感器1912可以与加速度传感器1911协同采集用户对计算机设备1900的3D动作。处理器1901根据陀螺仪传感器1912采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。

压力传感器1913可以设置在计算机设备1900的侧边框和/或触摸显示屏1905的下层。当压力传感器1913设置在计算机设备1900的侧边框时,可以检测用户对计算机设备1900的握持信号,由处理器1901根据压力传感器1913采集的握持信号进行左右手识别或快捷操作。当压力传感器1913设置在触摸显示屏1905的下层时,由处理器1901根据用户对触摸显示屏1905的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。

指纹传感器1914用于采集用户的指纹,由处理器1901根据指纹传感器1914采集到的指纹识别用户的身份,或者,由指纹传感器1914根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1901授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1914可以被设置计算机设备1900的正面、背面或侧面。当计算机设备1900上设置有物理按键或厂商Logo时,指纹传感器1914可以与物理按键或厂商Logo集成在一起。

光学传感器1915用于采集环境光强度。在一个实施例中,处理器1901可以根据光学传感器1915采集的环境光强度,控制触摸显示屏1905的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1905的显示亮度;当环境光强度较低时,调低触摸显示屏1905的显示亮度。在另一个实施例中,处理器1901还可以根据光学传感器1915采集的环境光强度,动态调整摄像头组件1906的拍摄参数。

接近传感器1916,也称距离传感器,通常设置在计算机设备1900的前面板。接近传感器1916用于采集用户与计算机设备1900的正面之间的距离。在一个实施例中,当接近传感器1916检测到用户与计算机设备1900的正面之间的距离逐渐变小时,由处理器1901控制触摸显示屏1905从亮屏状态切换为息屏状态;当接近传感器1916检测到用户与计算机设备1900的正面之间的距离逐渐变大时,由处理器1901控制触摸显示屏1905从息屏状态切换为亮屏状态。

本领域技术人员可以理解,图19中示出的结构并不构成对计算机设备1900的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。

所述存储器还包括一个或者一个以上的程序,所述一个或者一个以上程序存储于存储器中,所述一个或者一个以上程序包含用于进行本申请实施例提供的虚拟环境画面的显示方法。

本申请提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行以实现上述各个方法实施例提供的虚拟环境画面的显示方法。

本申请还提供了一种计算机程序产品,当计算机程序产品在计算机上运行时,使得计算机执行上述各个方法实施例提供的虚拟环境画面的显示方法。

上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。

本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。

以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

32页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:动画生成方法、装置、设备及介质

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!

技术分类