Oculus于2016年推出了Oculus Avatars,旨在支持用户在虚拟现实中会面娱乐。自那以后,这家公司就不断优化Oculus Avatars,并增加了大量的自定义选项,如毛发和配饰,希望为用户提供更大的灵活度和选择。今天,Oculus正式带来了全新的表达功能,同时更新了各个平台的虚拟角色编辑器,添加了一系列的定制选项。
Expressive Avatars能够模拟眼睛和嘴巴运动,帮助你在VR中进行自然的交互。借助全新的Avatar Editor,你现在可以自由选择新的肤色,发型和服饰,从而在VR交互中实现更为个性化的自己。Oculus表示,Expressive Avatars是基于用户反馈,同时结合他们多年来在机器学习,工程和设计等方面的研究与创新结晶。这家公司说道,目标“非常简单:支持VR中人与人的有意义交互,无论彼此身在何方。”
自2016年推出Oculus Platform以来,Oculus就致力于通过Oculus Touch等硬件优化和Rift Core 2.0等平台更新来强化虚拟现实中的社交临场感。这家公司在2016年12月推出了Oculus Avatars,允许用户通过一组面孔,发型和纹理效果来创建虚拟自我。Oculus在2018年升级了Oculus Avatars,提供了新的外观,提升了自定义选项,并且带来了全新的Avatar Editor。在今年年初,这家公司增加了Public Homes的支持,为Home添加了又一层社交维度,允许用户有机会以前所未有的方式来探索Rift社区,并与之互动。
Oculus指出,Expressive Avatars是向前迈出的一大步,但在VR中模拟最基本的人类表达是一项巨大的设计挑战,比如说微笑。它需要多支团队中的数十个人携手努力。为了创建富有表现力的虚拟化身,Oculus Avatar团队开发了可以准确地模拟人类交谈时的说话方式和眼神目光的算法,而且所有这一切都无需摄像头。Expressive Avatars不会通过摄像头追踪你的眼睛或脸部。它们都只是基于复杂模型的模拟。Oculus Avatar团队投注了大量的精力来为VR编写这种行为模型,然后不断调整优化,从而努力令虚拟现实中的交互感觉更加逼真。