新浪新闻客户端

BOE IPC·2023 元宇宙论坛精彩演讲内容实录

BOE IPC·2023 元宇宙论坛精彩演讲内容实录
2023年07月04日 14:01 新浪新闻综合

  主持人:尊敬的各位领导,产学研各界的来宾,大家上午好,欢迎各位莅临BOE IPC大会,元宇宙分论坛,我是主持人杨婷婷。

  相信昨天的主论坛和显示产业论坛,以及展示区的创新产品及应用,都给大家留下了深刻的印象。

  很容幸能在京东方三十周年之际,与各位业界专家,合作伙伴相聚于此,分享技术落地的多元场景,探讨技术进阶的多维可能,深化元宇宙议题的时代使命,展望无限的未来发展机遇。

  首先,请允许我介绍对于前沿技术有着深刻洞见与卓越建树,带领BOE研发团队持续挑战技术无人区的BOE(京东方)高级副总裁、联席首席技术官董学。

  接下来请允许我介绍受邀出席本次会议的演讲嘉宾,他们是来自清华大学刘烨斌教授,欢迎您;耐德佳创始人兼总裁,北京理工大学,程德文教授;小派科技创始人兼总裁,翁志斌先生,欢迎您。

  元宇宙的未来,充满无限想象空间,带动着产业链上下游技术持续进行创新与升级。让我们掌声有请董学致辞并进行主题演讲,《元宇宙,机遇与挑战》。

  董学:尊敬的各位来宾,BOE的伙伴,大家上午好!欢迎参加元宇宙论坛。

  三年,非常兴奋,也非常高兴,我们又能面对面一起讨论未来的技术创新和发展的路径,这也是我们第一次在IPC上来做一个以元宇宙为专题的论坛,我们为什么要这么做呢?有两点,第一个是京东方过去十年一直把元宇宙作为我们压轴的核心方向,我们希望通过论坛模式,把我们京东方的行动和想法跟外界共享,第二,元宇宙这个机会无穷,但是,难度也巨大,所以,希望有更多的伙伴我们一起来合作,一起来挖掘这些机会,把它变成现实,这是我们论坛的一个核心意义。

  我就直接进入我们主题,我带来的第一题目叫《元宇宙:机遇和挑战》。

  自从Facebook改名叫Meta之后,元宇宙这个词一夜爆火,但是元宇宙到底是个啥?这个东西大家心里边总是觉得模模糊糊的,所以我们也做了些功课,搜索了一下对元宇宙定义,摘了几条跟大家说一下。

  第一,人类运用数字技术构建的有现实世界影射或超越现实世界,可以与现实世界交互的虚拟世界。

  第二个是元宇宙就是人、地点等一些事物通过AR/VR形成的集合,元宇宙是所有沉浸式虚拟环境的一个集合。

  元宇宙指的是可以用Web3技术构建的开放、持久、实时、可操作的这么一个虚拟世界。

  实际上大家去百度搜索一下,这个词条定义元宇宙的非常多,搜完之后的感觉还是有点雾里看花,为什么呢?也很容易理解,未来的技术在当下思考的时候总是不够清晰,但是我们从这里边可以找到一些元宇宙的明显的特征。

  第一个,元宇宙的技术还是信息技术范畴的一个变革,我们描述了三句话,叫以三维信息可视化为基础,以更高的交互方式为动力,以更丰富的内容形式为载体。什么叫三维信息的可视化呢?我们把信息是有维度的,文字、数字描述的信息,我们定义成叫一维的信息,图片、视频这种信息,我们叫二维信息,三维信息就类似模型类的信息,一维二维,因为我们生活的现实世界没有纯粹一维二维的东西,都是三维的,再小的东西总是有体积的,所以,这个维度稍微一升带来的影响是非常非常深刻的,在信息是一维二维的时候,人会非常清晰地知道这个东西就是虚的,但是到了三维很难分辨信息到底是虚的还是实的,这会导致人的信息的面跟人的这种现实世界面的融合,这也是元宇宙变革的一个根本。

  第二个,这种时候我们要更高效的交互为动力。为什么呢?信息是服务于人的,需要更高效的得到信息、使用信息,这是永恒不变的原则,所以一维时候键盘输入文字就可以了,二维时候需要触控这样更高效的交互,三维时候鼠标、键盘、触控没有办法实现空间维度的控制,这时候需要包括眼,包括手,或者空间比类似的模式实现更高效的模式。

  第三个,以更丰富的形势为载体,会变成类似像游戏元宇宙、社交元宇宙,包括工业元宇宙,这个是什么逻辑呢?人还是以场景为基准才能形成需求的规范化,就是没有场景的时候人的需求是非常无序的,得在具体的场景里才能把你的需求相对来说清晰的展现出来,然后只有在需求相对清晰的时候,你的信息的组合才有一个原则,这个时候就是元宇宙的一个基础,所以我们叫以更丰富的内容形式为载体,这是一个元宇宙的基本特征。

  问题来了,元宇宙是不是一定必须要有的?我们是这么来理解这个问题,左边这个图我们大概计算了一下,人的信息获取有一个生理极限,信息获取主要拿眼睛看,人得到一个信息基本就是8K水平,8K代表信息量多少呢?大概5G,因为这里边人到了眼里边8K,而且还得看,能看清楚的地方也不多,算下来大概5G,我们大概算这个公式,假定一秒钟得到一个8K信息,而且完全不同的,这一辈子会获取多少信息,算了一下,5500TB,这是非常极限,每天不是24小时,按照是10小时一直获取不同信息,人获取信息的形式从来都不是离散的,一般都是要获取一个连续的,比如看个视频,这种类似信息重复率非常高,一般视频压缩大概1000倍,大家知道,这样的时候,你一辈子获取的信息就是500除以1000,实际上只有5TB,10个小时一直不停的看,你一辈子能获得的信息能大多少?可能就1T的水平,按钱算的话,这1T是200块钱差不多这个水平,这就是人一辈子能获得信息的量。

  另外一个,自从信息技术发明之后,信息到大爆炸,这个在去年的时候全球的信息总量已经到了80ZB,ZB什么意思?1ZB等于10亿T,而且每年是30%左右增长,这种模式我们作为一个正常的人怎么驾驭这个信息,这是完全不可能的状态,而且这些信息都是一维二维,是脱离现实世界,是一个碎片化模式的信息,要获得一个真正有意义的,可能要读一本书而不是看几个文字,可能要看一个视频才能获得真正有意义的知识。

  所以,这个时候导致的结果,我们人已经不是信息的主人,已经逐步变成信息的奴隶,这是一个很危险的状态,我记得2020年时候看了一个报告,当时欧洲那边,他们统计人类有史以来智商,人类一直在发展,智商一直在提升,但是2020时候是往下走的。现在社会发展了,所以我们一定要有一个非常非常高效的信息模式,元宇宙我们觉得它就非常好的模式,因为它可以把信息从纯虚拟的跟现实进行融合,我们觉得元宇宙的一个必要性。

  第三个,我们都是公司,他能为我们企业带来什么价值呢?咱们可以看这个信息技术发展的过程,从单机时代,到互联网时代,到现在移动物联网,诞生了一大批的高科技企业,包括IBM,英特尔,微软这些,描述的元宇宙它的变革要比移动互联网价值更大,所以它创造的一个事业机会可能是要更吸引人。所以这就理解为什么很多大公司砸了那么多钱非要搞元宇宙,他们图的就是未来时代更大的成长机会。

  从元宇宙提出概念一共几十年,成长不起来,一直说是未来,但是从来没有真正到来,我们从元宇宙的生态完整度来思考这个问题,我们把生态描了四个层,最底层的,硬件基础层,中间的叫软件技术,上边就是场景的应用,最顶上就是用户层,针对硬件技术这一块,我们觉得这个是之所以元宇宙还没有到来的最卡的地方,就是现在还是属于一个基础设施的建设阶段,它的一些不成熟导致体验不够舒适,这是制约元宇宙的一个最大因素,而且其中我们把这个基础层分了三部分,一个是显示终端,另外一个计算通讯和感知交互,这里边的显示跟终端这块又是不成熟中的不成熟,叫瓶颈,所以我们觉得显示与交互领域在未来存在巨大的一个价值空间。

  接下来,我们以硬件方案这个层面描述为什么不成熟,有哪些痛点。一个近眼的方案,VR/AR方式,人直接佩戴实现跟元宇宙信息的沉浸式交互,简单说,戴上一个眼镜就可以遨游世界,没有时间、空间的限制,这是理想的状态,现实呢?第一个,一戴上之后的感觉,这信息怎么这么糊,因为现在从手机到TV都是视网膜时代,所以信息一看都是很细腻的,但是VR戴上之后颗粒感非常强,即使像最新发布的视网膜的屏,实现了一个40分辨率的状态,人眼是60,VR一般需要100度左右,这样的话要真正实现一个视网膜水平,得需要一个6K左右的屏才能真正实现基本的视网膜水平。我的理解是,目前可能VR是真正刚入门,刚要开始起步。

  第二个,眩晕感强,这里边有两个问题,一个,可能就是辐辏问题,第二个就是延时问题,就是动的时候感觉内容总是虚的时候跟实的不太一样,导致眩晕。

  第三个,空间感差,我们自然世界空间是非常均匀的,近远一看很舒服,理想的戴VR也希望获得这种感觉,一般戴上之后能感觉出近远,总是觉得被笼子罩着的状态,它也是现在主要问题,因为现在的VR都是通过这种成像视差方式呈现,它的比较好的点一般是1米5到2米距离时候看得比较舒适,近了也会不舒适,远了也不舒适,也是实际的空间感的获得是比较弱的。大家知道人眼的分辨,叫4D,人的分辩能力是七分之一1D,一共28D,1.5米到2米都是1D以外得到很少的部分。

  第四,舒适度低,戴眼镜的同学知道,基本的重量可能是几十克,这是大家戴眼睛的正常状态,VR离这个还有数量级,现在VR 200到800g,非常重,让人一种禁锢的感觉,是不舒适的。

  以上这些点,近眼硬件方案里很多痛点都是值得我们突破的,这些里边我们也把它落到几个协作焦点上。

  第一个,高分辨率屏幕,分辨率提升一定是未来一个非常非常关键的解决方案,这个核心的话怎么样助力玻璃级半导体加工更加精细,从材料装备层面的一些变革,这些是我们一直在寻求的方案,第二个,高效的光学成像方案,从光效、光学体积、成像质量三位一体,我们怎么把它创造出来,真正把重量降下来。第三个,高分辨率的整机方案,刚才说的2个4K,现在SOC支撑就比较费劲了,那2个8K呢,2个16K呢,这些小的一个SOC支撑这么大的一个信息量,还有非常高的刷新率,这个也是很大的难题,这一块需要匹配智能屏分这种驱动架构的内容、软件、SOC通讯一系列合作,这是我们针对近眼系统的一些合作需求。

  另外一个硬件方案的形势,我们叫3D显示,不管电视、监视器还有PAD,形成3D的,这类似于把虚拟空间跟现实空间开了一扇门,从门里体验,这么一个感觉。3D显示的概念提的更早,已经200年了,经历的过程比这个VR元宇宙还早,包括大家了解的像飞利浦,包括夏普、三星、LG都推出很多方案,但是没有一个成熟的。

  我们说一下关键点,第一个,你只要三维化一定会导致分辨率降低,颗粒感是强的,特别是要实现更好的三维效果,视点多的时候颗粒感会更强,第二个,串扰,因为光的控制,我们形容叫谁能控制光谁可以变成上帝,因为光是能量的基本,光的控制是非常难的东西,所以它的串扰比较高,这会导致人看信息时候重影,发虚。第三个,摩尔纹严重,也是光学,右边那个看着看着条纹就出来了,这需要从新的一些基础结构,从光路层面规范好。第四个,因为串扰厉害、分辨率低、摩尔纹也厉害,最后结果,想得到一个大景深的三维显示效果就感觉非常难,一般解决方案非常简单,把三维景深压,压到二维这些问题全解决了,所以这是这个方案基本的状态。

  面对这个硬件方案我们提了三个方向的协作焦点,第一个,微透镜阵列精细加工方案,第二个,实时的光场采集跟三维建模,这个为什么重要?三维信息的可视化有一个根本点,一定让信息回归,这是价值的最关键点,这是未来一个非常非常大的机会点,因为京东方主要是硬件,不涉及内容,所以一定要找外部的互动合作,第三,信息交互的系统方案,不管眼控,手控,脑电波控都可以,可以把信息精确地实时交互,这个没有特别好的方案。以上三点就是我们面向3D化的一些协作焦点。

  以上就是我发表的报告,总的来说,元宇宙给大家描述一个无穷想象的价值机会,但是,它提供的机会要付出的代价也是巨大的,刚才描述的核心,这个代价一定以硬件重新架构为基础做这个事情,打个比方,不是特别贴切,交通工具自行车怎么造都不能变成汽车,这么一个变革的要求来思考这个问题,反而你会觉得这个东西是科技的。

  最后,以凝心聚力,共同开创元宇宙未来结尾,谢谢大家!

  主持人:谢谢董总,诚如董总所讲,京东方会持续以技术引领,与各位各做伙伴赋能元宇宙产业,共同推动行业向前发展。

  当前元宇宙和人工智能热潮下,三维视觉技术受到学术界和产业界的广泛关注。让我们掌声有请清华大学刘烨斌教授进行主题演讲,《三维视觉,过去,现在和未来》

  刘烨斌:谢谢京东方的邀请,非常高兴来到这里,董总说的,我们内容最快,可能需要一些合作,所以,也是最近跟京东方有一些内容的合作。

  我这个PPT因为题目给是前年给的,最近几年变化比较大,所以后面内容比较多,三维视觉发展这两年变化比较大,所以我讲得会很快,70页的PPT。

  主要围绕几个来讲,三维视觉其实属于计算机视觉,大的框架,对图像视觉的媒体,计算机视觉也是一个很大的圈子,不管是学术界和产业界。

  在学术界,这个CVPR影响挺大,它的影响力在Nature、Science期刊之后,计算机视觉、三维视觉最核心两个目的,一个就是生成内容,一个让我们理解,这个在元宇宙都非常重要。

  对于一个理解问题来说,是计算机视觉问题,我们很多时候都需要用三维去理解,包括三维测量定位建模,才能更好的理解一些更重要的问题。

  这里面包括很多CVPR领域最佳论文,相比传统二维视觉少很多,但非常重要。

  元宇宙这种,我们需要构建一个现实的大规模的场景,把它数字化,这些都是三维视觉,包括定位,另外一个,未来的机器人,我们去抓取,去做我们的服务,机器人帮我们穿衣服,帮我们做饭等等,这些都需要用三维视觉,需要建模这个环境,理解这个环境,包括这个距离等等。

  这里面还需要用一些三维仿真,强化学习,如何抓取,这些都是三维是觉的问题,三维视觉包括机器人室内的一些操控,做一些任务等等,其实都需要一些多相机系统,把三维建模出来。

  还包括在自动驾驶,其实也是一种机器人,包括建模地图,包括把车辆能显示出来,都是一些三维的东西。

  还包括做全息交互通讯,我们戴上眼镜,或者通过我们的显示器能看到远程的亲友,能三维的呈现出来,这些都是一个未来的技术的需求。

  这个发展历史我总结了一些脉络,这个是过去的,包括最早随着计算机机器视觉提出,摄影理论、立体几何等等,是70年代、60年代,接下来90年代器件发展,相机、传感器,更好的采集我们的现实的一些数据。

  到2000年左右,很多这种机器人怎么定位我们的相机,到2010年左右出现一些更新的,包括实时的三维的感知,像深度相机,在2015年左右随着深度学习的发展,出现新的能用深度学习的算法。

  我大概很快过一下。

  在90年代后期、中期就是这种多相机的采集阵列,通过相机密集拍摄,然后去建模,给我们提供了高精度建模的可能。

  三维视觉跟二维视觉的区别就是,二维视觉是我们现实场景只获取了二维图像,然后做一个模式识别问题,去做一个包括分割、识别,简单的二维上的理解,所以它是一个局部,三维视觉是把前端这些三维现实世界里面一个七维函数,包括XYZ就是空间的点,它有一条光线,θ是光线的角度,T是时刻,这里面还包括相机的位置,场景的材质等等,场景的几何,我们的成像过程是一个下采样的过程,包括滤波,我们三维视觉是把整个过程建模起来,更好的接近视觉的本质。

  在矢量时代提供实时能定位相机的能力,包括在室内环境构图等等这些工作。

  在深度相机的时候,我们可以通过单个深度相机可以实时扫描静态环境,包括扫描一个动态的场景,我们实验室在动态重建这块,其实做了很多工作,一个深度相机去实时的重建一个动态的人体,这里面最核心的是一帧一帧之间实时的跟踪和实时动态融合,我们提出很多双平面的协同的重建方式,去建模内部的表面以及我们外部点云的匹配,这个匹配过程就会更准。

  在这直接展示一些结果,我们在2017年的时候,就是做一些深度相机去采集一些实时的动态问题,这个人开头正面是只看到正面的点云,转一圈之后背面能够实时动态融合完整,包括纹理贴上之后可以做一些内容的展示,我们可以把它做的更鲁棒,就是扩展几个深度相机,相比于微软的2016年HOLOPDETION的系统,这是当时做的全人体的重建效果。

  在2015年深度学习出来之后,其实可以通过一些三维的表征,我们叫表征学习,这个表征学习对各种三维的点云,包括各种不同的works,这种Mesh,如何去学他的深度网络,然后进行多表征的协同,这样可以做到给一幅图像可以重建三维模型,这就是我们通过这个表征学习利用大规模三维数据,现在用三维网络,用很多三维数据监督,这样的话限定的条件下可以很好的重建出来,这对互联网图像通过单图像呈现,这个基础上需要大规模学习三维模型,大概上千个三维人体模型,我们学出这样一个效果,包括一些互联网的图像。

  这种三维表征除了重建还可以做一些交互的问题,我们的动捕问题,传统的二维视觉只是做手势的识别,我们三维视觉现在的问题是如何更好的重建,已经颠覆了二维离散的分类,而是一个连续的重建过程。为什么技术的进步可以做这个事情,因为我们有三维的数据,三维模型的手大规模的学习三维先验,综合多相机采集技术,获得多视角手的图像,知识的先验和数据的先验,可以使得很好的做这个事情。

  包括人体,传统人体做二维姿态识别,一直过渡到三维架检测,到三维形体分析,这一块是我们做的,通过手机RGB相机可以实时的捕捉全身的动作,这个就是利用了大规模人体骨架,还有人体三维的先验,这在人机交互中非常有用。

  包括在手部的紧密交互,我们也是用单个相机,RGB相机可以实时捕捉我们紧密交互的过程。

  这个是过去的,我们现在经历的是一个Nerf时代,Nerf是一个更好的场景表征,通过拍摄多视角图像重构出新的视点。跟之前讲的技术什么区别呢?最大的区别是端到端的过程,它没有几何的建模,直接通过采集到的离散的视点图像,生成新视点,做到光影非常现实。

  神经辐射场Nerf从2020年出来,当时核心就是隐式神经场加体渲染公式,其实也基于刚才讲到的全光函数,空间中任意一条光线,我们通过全连接的神经网络,回归这条光线XYZ这个点,沿着θ这个方向,它上面的RGB以及θ,就是它的密度值,通过全卷积网络可以回归出来,去学这个过程,然后空间中任意点都回归出RGBθ,可以用体渲染方式把这个值合成出来,这个过程就是投影空间中的一个光线,在光线上采样连续的点,我通过一个网络查询这个点的颜色和密度,然后这条光线所有点都查询出来,所以像一些带有散射的介质有些点的密度比较低,有些点的密度比较高,取决于高的点,最后合成出像素颜色,最核心的是在神经网络里可以回传梯度,这样可以优化神经网络,我通过RGB的图像,去优化全卷积网络MLP这个网络,我可以给定一个新的点渲染它的颜色。

  Nerf其实本质上就是刚才这个PPT所表述的内容,把函数通过端到端的表达,是紧致高效的三维表达。

  其实像刚才说的,Nerf出来之前也有很多三维的表征通过深度学习,包括显示曲面的深度学习,包括点云的深度学习,体素的深度学习,Nerf是一个直接更端到端的,并且它是以像素颜色为基础,所以它可以支持半透明等复杂场景,它的体渲染公式梯度优化性好,然后可建模光高频的细节,所以它一下子取代了很多像几何深度学习的一些方法。

  从2020年出来之后,它目前的引用也超过三千次,今年CVPI有120篇关于Nerf的文章。

  我们也做的一些工作,今年CVPR的高被引文章,通过四个视点做动态的Nerf,我们提出这种表征,在Lookingglass的显示器上放4个RGB相机,RGB相机拍摄的图像经过算法模型重建,最后显示在3D显示器上。

  传统的国际上很多还是用RGBD相机,我们希望完全通过RGB相机可以做这样一个全息显示过程,这也是比较了一些其他的算法,这是比较好的算法。

  这个Nerf还可以做一些生成类的事情,就是3D数字人生成,我们采集小姑娘的形象,跳跃、踢腿、打拳,就可以合成成她走猫步的视频,我们通过神经辐射场,除了外皮的表征,还用内表面的模型,在模型顶点离散采样这些神经辐射场,这样既可以表达全局,又可以表达细节的纹理,我们通过端到端的神经辐射场优化,优化我们的每一个表面的点的神经辐射场,就可以合成新的动作。刚才的人脸也可以借助一些人脸的模板,通过三平面神经辐射场的方式刻画人脸在新表情下的动作。

  这是采集了六个输入视点,左下角是一个驱动的人的形象,生成的神经辐射场可以多视点渲染,这也可以用到元宇宙和我们的远程全息交互,就是我采完这个数字人的形象之后,我们就可以自己驱动自己,这样的话保持一个比较好的形象。

  这个是一个语音驱动,让他念一段语音,这个声音比较小,这样的话口形会比较接近真实,这个是数字人的一个化身。

  结合人头跟全身,我们构建了数字人形象,这都是神经辐射场,都是3D表现,这里展现三个数字人,我们用同一个动作驱动。

  这个是同一个动作驱动两个数字人,在一个观察相机阵列上采集每一个数字人,16个相机采集2、3天时间我们就可以实时驱动。

  这是我们训练球员形象之后,我们用单视点运动捕捉驱动,这是驱动的骨架,右边是数字人形象,他是一个3D的。

  这里展示实时驱动神经辐射场。这是全新的数字人形象,既有表情的生成,又有肢体动作的生成。

  最后,一分钟,之前每一个阶段,其实为三维视觉提供基础能力,包括数据获取,相机定位感知,还有Nerf式生成优化,我们下一个阶段,是多模态的3DAI学习,AI学习大模型非常火,这里面包括文生图,文生视频,现在给一个文本可以生成很好的图像内容,生成很真实的图像,但是要生成真实的视频非常难,生成三维内容比较难,给一个内容描述生成三维模型。

  包括4D,既有三维又有时域,我们也做了一些包括人头的生成,这些是国际上比较出名的,包括Diffusion这些内容,就是通过文本描述,通过AIGC就可以生成。

  这些有二维的,复杂度比较高,大概一个模型可能生成半天甚至好几天,如果有大规模的三维数据学习,像学习这个脸,可以比较快的生成。

  采集可以多视点采集,给一个描述,可以生成其他人的形象,而且是4D的。

  未来结合生成式的3D,结合机器人具身智能可以做很多事情。

  谢谢大家!

  主持人:谢谢刘教授,从技术原理带我们领略三维视觉的美妙。三维视觉是实现视觉智能和元宇宙不可或缺的技术之一。同样,不同类型的显示技术,为消费者在元宇宙世界中提供不同的体验感受。

  接下来让我们掌声有请北京航空航天大学王琼华教授,进行主题演讲《面向元宇宙的光场3D显示》。

  王琼华:各位同仁,各位朋友,上午好!非常容幸今天做这个报告,特别感谢京东方的邀请,还有刚才主持人的介绍。

  我报告的题目是:面向元宇宙的光场3D显示技术,主要介绍四个内容,首先,把3D显示的概述做一个简单介绍,然后,第二、第三部分是我们团队做的两个工作,最后,进行一个其他方面的简单介绍。

  今天我们在座的都是同行,做显示的,重要性不言而喻。

  显示的产品跟我们生活最密切相关,每一位我们都会有相关的产品,包括现在在做报告,LED屏,这边的液晶屏,都是我们要用到的显示技术,而且用的时间也是越来越长现在。显示大致分成两大类,一个是2D,一个是3D,也就是一个是平面,一个是立体。2D我觉得现在是我们正在用的,也比较多的,3D相对比较少,所以今天我来以这个做主要的内容汇报。

  3D主要的优势在哪儿?因为多了一个维度,把我们原来平面的信息能够纵深信息呈现出来,能够更加地逼真,最主要的逼真感一般通过3D表达。当然计算机图形学方面有特定的内容制作,就有我们的LED屏也可以呈现,但是要实现所有内容都有3D效果的话,我们的硬件,我们的屏必须要做相应的技术突破。

  3D显示的技术种类有很多,分类现在也没有标准,我们团队经过一些思考,把3D大致这样分了一下,不一定合理,仅供参考。

  这三类分别是第一,人戴眼镜,第二,屏戴眼睛,第三,光场3D。所谓人戴眼镜是以前看3D眼镜或者好多年前的3D电视,都要戴眼镜,有快门的,还有偏光等几种,现在AR/VR这种头戴显示用的更简单,就是左右眼自然的通过近眼的地方中间隔开了,这是最简单的办法,左眼右眼分开,人戴眼镜的目的是模拟看我们现实世界左眼看场景和右眼看场景分别排出来,我们通过视差融合在一起达到效果,它的不足就是,要戴这个眼镜,第二,视差融合,有视疲劳的眩晕问题。

  第二类3D显示屏戴眼镜,就是常规裸眼3D显示,和第一类原理类似,只不过这些偏正眼镜、快门眼镜,甚至AR、VR简单的隔开左右眼,而是把类似器件放到屏上,让它给我们左眼和右眼分开,但是依然存在眩晕问题。

  我们能否有一种既不戴眼镜又看的很自然的这种,就是第三种光场3D,光场3D把图像像现实世界这样先呈现出来我们人再去看,我们看自然界是很重要的事,看这个3D图像就很自然了,没有眩晕了,这个技术有集成成像、全息、体3D等等,以及部分AR、VR里也在用光场技术,这块是我们研究的重点。

  我们今天集中到集成成像广场3D显示定义,直接看原理,原理我们反着看,先看信息获取,我们获取时候是在摄像机前面加一个透镜阵列,场景光通过透镜阵列最后记录在CCD上,我们在平台上播放时候,在屏前面加一个刚才拍时候的透镜阵列,这两个是反的,前面图像是立体的后面的图像也是立体的,当然,光场结构非常复杂,类似3D获取那样,其实还是有非常复杂的理论和一些技术。

  我这边重点是做显示,我们如何把2D屏加上阵列做出一个光场屏出来,这个有很多优点,所以我们作为重点十几年一直做这方面研究。基于它相对于其他的理想类似全息说话,还属于相对比较成熟,能够接近做到一个好的效果,而且能够真正做到像显示屏的样子,有望马上成产品的技术,最大的优点是,结构简单,就是2D屏加一个透镜阵列,这样可以呈现我们最大的特征,现在如果又返回去变成大块这个是很不好的事儿,所以这种技术能维持平板化。第二,它是准连续视点,观看时候可以屏幕这么看也可以这么看,类似手机可以横着看,竖着看,原来屏戴眼镜的就不行,屏戴眼镜只有水平视差,手机只能一个方向看,换一个角度就没有立体的,集成成像光场,类似看自然界光分布,也是第三个特点,全视差,色彩这些等等完全没有损失,成本当然就低,利用集成光场技术可以实现舒适的观看,眩晕问题一定程度,不是完全,至少很大程度能够解决眩晕问题。

  眩晕问题是怎么产生的?我们来看看,原来视差型的3D,因为用这些器件放在屏后让我们分别看左眼和右眼,人的大脑再融合产生立体的,而如果是光场3D不一样,我们先把屏幕上的图像能够光场重构成本身有立体感的、光分布的图像,我们观看者在去看它这个时候就不在乎分左眼和右眼分开看,不需要一个左右眼融合的过程。疲劳还有一些其他的深入研究,我们没有涉及,但是,从简单的过程来看,我们不需要一个左右视差图像融合在大脑里,符合我们观看习惯,因为我们看自然界时候,没有说一定要左眼非得要左图,右眼看右图,我们这样一个场景看它,显示时候也做出这样一个效果的图像再去看它,就符合观看习惯,只要符合习惯的就自在、舒服,不符合习惯的跟他是不一样的也会不自在,会产生其他一些冲突,我们这个是视觉,就会产生视疲劳。所以光场3D能够解决视疲劳问题。

  今天论坛主题是元宇宙,我觉得元宇宙涉及的技术方方面面,我们做显示的是其中一个重要的技术,对应的这样一个元宇宙如果涉及到以后的产品,那么显示在里面也是一个重要的产品、重要的设备,是一个以实实在在的东西存在的一个形态,不管元宇宙怎么弄,感受另一个世界就需要视觉,视觉需要一个显示器、显示屏或者显示装置,所以真的以后元宇宙发达了,以后肯定有我们在座同行们的事,所以一定要通过非常理想的显示装置去到另外一个世界去看、去感受,虽然是虚的,再虚都得有这个实在的显示屏,不管这个屏的存在形态,一定要有这个装置,不可能全是虚的,可能内容存在形态可能是软件的形势,虚的,显示这一块肯定是一个实的东西,就是我们的显示。

  3D显示用于元宇宙的视觉装置的话,有的好处就是,特别光场3D,不要用注视设备,真的元宇宙到来时候,我们用眼睛的时间更长,一定显示设备要是舒适的,如果有视疲劳的肯定不行,不能以后专门为元宇宙时代做准备,要研制什么眼药水,我们觉得没必要,我们做显示的把这个做好就会减少不用的多余的技术了,医学方面的。

  下面我简单汇报一下我们团队这几年在光场方面做的工作。

  第一,大视角桌面集成成像光场3D显示器,这是我们十三五重点研发项目。我们的桌面显示是指显示屏躺下来能够环视,常规的显示是类似现在这样往墙上看,做计算机同行来说,可能桌面就不是这个意思,桌面就是类似台式机的意思。

  怎么做成3D,平躺下来360度环视,如果做成3D呢?本身2D躺下来过后最好的观看视角在上面,我们做成3D把上面的光往四周放,最好的视野都不在上面,所以我们要有一个挑战,把原来做3D还是做2D最好的观看视角挪到周边,不在顶上,我们考虑的方法是,用光场3D技术做,我们是用的不是微透镜,是大透镜,大透镜填充中间还有一些空隙,纵深的图像不连续,就加了扩散屏。这是基本结构,可以实现3D。

  但是刚才说了,能把顶上的光四周看的话,我们需要一个特定的透镜阵列方面做一些事,我们做了复合透镜阵列,所谓复合透镜阵列,原来一个透镜行了,我们是三个叠加在一起,通过复合多一些参数,我们进行优化,形成像差方面的效果,做到大视角时候3D重构效果比较理想,具体的参数指标我们列在表里面,不再详说。

  中间这些成像质量的分析,我们从对比图可以看出来,常规的平凸透镜,比如网格从原来20%几降到只有百分之几,进一步看复合透镜点列图也能看出来,我们赋予了大市场更高的权重,还加上一定的离焦,这样保证大视场下的成像还要清晰,就是说上面不用的这部分我们就不是那么在意,而是要周围看到这一部分的图像要清晰。

  最终,透镜阵列设计,包括光场3D显示器的主要参数,如表所示,我们选用8K显示屏,当初还是最高分辨率的屏,据说京东方已经做出16K,那么如果做出16K屏效果会更好。另外,通过设计,保证的纵向的视角68.5度,当然这个角度应该还算是来的桌面光透显示器的外形图不错,还是经过很多优化才能达到,这个是我们实际研制出,实际用是两个8K屏衔接,当时是尺寸图的大小,是那个需求,另外如果多一个屏的像素数也多了,信息量也增加,整体图像清晰度也会提升。

  但现在有16K屏不用拼,这个是一个环视效果,这个是纵向视频,两条鱼场景是不动的,本身是静态图,我们拍时候相机从不同角度拍,能看到鱼的不同侧面,表示有立体感,但实际观看,如果大家方便欢迎到北航我们实验室现场看就能看到立体的效果。这个还有提升空间,如果用更高分辨率的屏做,加上其他的还有一些技术,可以把它的性能进一步提升,如果再配上交互,可以用到沙盘或者会议系统。

  下面我再介绍我们第二个工作,高分辨率集成成像光场3D显示。整个做3D,不管是戴眼镜的视差型的还是光差型的,和2D相比分辨率都会下降,如何提高3D的分辨率?我们这儿做的一个工作,也是信息量有限的情况下做了折衷,我们不是那么在意视角,而是集中做分辨率提升,这不是躺着,是常规的正向看的屏,我们也是一样,是一个2D屏加上透镜阵列,依然加了扩散屏,2D低一些,是4K的,换句话说,如果用8K的话分辨率高一些,当时是基于小屏做实验用的。

  这样一个结构我们在透镜方面,基于方便率考虑,这也是用了一个复合透镜阵列,复合透镜阵列是双交合的再加上复合透镜做的,这样能够更好控制像差,保证清晰度,从复合透镜阵列图看到,所以市场的值都是单个像素尺寸,保证清晰度。

  我们设计的视角不是很大,只有正负19,就是30几度,主要是考虑我们的分辨率,用屏小的话观看的人不多,所以视角不是主要问题,而是保证分辨率的提升,实际通过设计制作出这样一台显示器,我们在ICDT有一年就在这个会场开ICDT,我们还做了一个展示,观看效果和刚才两个8K屏相比,这个不逊色,我们深度还是有限,屏小,视点数12000,刚才设计19度,正负19就是38,屏幕尺寸只有15.6英寸。这是2D显示效果和3D显示效果拍出来的对比图,和2D相比分辨率下降相对少一些,由此我们可以看到,以后我们做3D如果要保证分辨率的话,视角我们不在意的话就可以来牺牲一个参数,一个指标来提升另一个指标,特别是小屏,包括以后手机、PAD,我们不太在意视角大小的话,优先保证分辨率提升。

  这是实际的显示效果的视频,大家可以看到,因为是光场3D,各个角度看都是一样的效果,这样有利于小尺寸的应用。

  下面我们再把其他的一些研究工作做一个简单汇报。

  第一,我们做的高清晰度超多视点裸眼光场3D显示器。在现有的信息量有限的情况下,我们要保证分辨率可以考虑这种屏幕不动的时候,也就是说中大屏幕的时候,我们不需要屏幕去旋转看,不需要像手机一样横着看竖着看只有水平方向有视察,这是超多视点,我知道京东方在这方面做了很多不错的工作,我们用8K屏做了超多视点,虽然不能够纵向看,但是实现了横着看、远着看、近着看都可以好的效果,可以满足中大屏幕不动屏本身不怎么需要水平垂直看的高分辨率观看效果,保证的清晰度和舒适度,而且也保证了亮度。

  刚才我们用的透镜阵列中间有一些区域不透光,所以亮度也降了,现在这个技术亮度能保证了,分辨率刚才保证了,舒适度保证了,我们特别关心的参数都得到保证,所以说,这种显示可能马上推广应用的一种光场3D,非常接近于2D的显示效果,这是8K显示屏,如果京东方做的16K,我下午去看,那可能会更好,这样我们3D的时代真的马上到了,原来觉得遥遥无期,觉得太遥远,现在真的马上,而且这个成本 ,批量生产,我觉得会很低,量产会很低,而且制作也相对简单,做2D最难,因为它实在是太复杂了,但是有2D的基础上再做3D,特别做这种基础的3D,相对来说结构简单,成本低,但是性能好,我觉得给我们做3D的很大的一个欣慰,以前我做3D快20年,觉得看不到希望,但是这样一个技术出来,这个技术以前也有,基于种种原因,包括片源其他原因没有推广,刚才刘老师3D获取技术,很多AI,很多很多技术出来,我们的内容就不成问题了,有3D终端用上去,我们这个产业一定就会到了。

  Python系统不说了,这个是非常老的技术了,但是,它跟我们光场3D进行实时的拍显还是有一定的先进性,另外,我们原来也做过集成成像的多视、双视显示,就是一屏多显,在车载显示空间有限的情况下,我们从一个角度看一个场景,从另一个角度看另外一个场景,这是我们光场3D里面,因为光场3D不是分辨率下降嘛,下降主要是因为有一部分信息采用,另一部分信息根本没有用到,我们想一个角度的信息用一个场景,另一个角度用另一个场景,这样把这个空间用起来。

  我们还做了2D、3D兼容显示,3D马上到来,到来过后3D如何兼容原来的2D呢,原来2D片源能不能在3D播放,那是很关注的事,目前所谓不兼容2D的3D放2D也还行,如果还希望原来的2D也非常清晰,能够回到原来的状态的话,我们用液晶透镜做,我们做了一个四模式的2D、3D切换显示器,可以水平看立体、垂直看立体,还可以看2D,这样四模式的,这是设计的液晶透镜实现的。

  全新3D被认为是最理想的终极3D显示,现在还在实验室阶段,就是真正的用光的衍射实现全息,现在很多都在做相应的研究工作。当然还算是既古老又前沿,为什么前沿呢?还不像一个产品形态,不像一个屏这种的,还需要很多的后续的演进工作,我们团队也做这方面研究,代表工作就是彩色视频的获取与现实系统,还有交互不说了,因为也是我们随便做的一个可以绝对3D的应用场景,可以做交互,做游戏,仿真等等。

  以上就是我给大家汇报的四方面内容,第一,对3D一个简单概述,第二,我们大视角桌面3D环视效果,第三,高分辨率小屏时候不在意视角的情况下保证分辨率,第四个,其他代表性工作,特别这种超多视点的光场3D显示,是最接近于产品的形态,我希望这样一个产品能够尽快,特别在京东方带领下把这样一个产品做出来,把我们真正从2D引领到3D去,实现到3D去。

  近来我们三方面的研究工作实际上还是要都进行,不是哪个就不用了,比如是人戴眼镜的,现在VR/AR要用,屏戴眼睛很多优点,分辨率很高,只需要两个视点,分辨率降了一半,屏戴眼镜还是有需求,光场3D是我们的发展方向,如果用16K屏能够保证分辨率高,一定的视角还是可以保证的,亮度高,舒适度好,这样一些综合性能都能够接近于我们对3D的需求,所以,它的应用就非常快。

  将来的高性能3D显示需要我们做到立体感强、舒适度好,分辨率高,视角大,功率地,体系小,轻便,形态可以由有头戴,近眼的,也有常规的,另外桌面的,这几种形态都并存。

  以上是团队成员做的,当然还有其他研究方向,如果了解更多大家可以扫二维码,或者加我的邮箱,以后多联系,欢迎大家批评指正,谢谢大家!

  主持人:感谢王教授的分享,相信元宇宙魅力在于多元化、多场景等。

  让我们掌声有请LCD VRAR开发中心,谢建云总进行主题演讲Fast LCD开启元宇宙之钥。

  谢建云:听了分享我个人获取了很多数据,感谢安排让我在王教授后面做演讲,我20年多前也是在北航求学,希望以后跟学校有更多的产学研结合以及软硬件融合,共同推动元宇宙发展。

  我今天演讲的题目是:Fast LCD开启元宇宙之钥。

  什么是Fast LCD?Fast LCD作为元宇宙里面VR的器件解决方案之一,我们下面简单看一下发展历程。

  早期的VR产品使用OLED产品,代表有三星的Gear,当时就是直接插上一个三星的手机就可以使用,但是,它整体的表现颗粒感比较强,看起来就像一个玩具,我们2015年提出Fast LCD概念,可以把像素做的很高,2016年第一次基于产品推向市场,之后产品迭代升级我们不做Fast LCD的升级,我们做高PPI1000PPIVR,以及后续高对比度、高透过率的G3,使用也是我们自主创新的核心技术,后面我会一一展开说明。

  未来,我们也是不断的技术和产品的迭代,结合未来B20产线建设,我们会推出我们G4 4K Fast LCD。

  回到Fast LCD起点,这里简单对比了几个VR显示方案里面用到技术的情况,早期的OLED,还有Normal LCD、Fast LCD,OLED在像素密度、高PPI以及成本这块始终有一个不足,我们Narmal LCD显示,由于当时的响应时间是25毫秒,远远满足不了VR里面对于液晶快速响应的要求,在当时时间节点,我们自主创新开发出低Gap技术,将响应时间提升倍,压缩到5毫秒,满足VR显示的需求。这块我们很多技术问题,包括PS Peeling的问题,以及低Gap下光学均一性问题,以及过程中我们形成的面向VR的高精细的工艺管控能力,我们将原来的能力从2.5微米提升到1.5微米,这个1.5微米在当时是全球领先的水平。

  这是我们作为Fast LCD发起者做的工作。

  随后我们一直在Fast LCD更新,目前随着上下游共同推动,我们迎来Fast LCD升级。升级哪些方面,首先是像素密度,因为既然显示以后像素密度是至关重要的参数,我们从原来的800PPI,到1000PPI,到1200PPI,到目前的1411PPI,每一步都是挑战工艺和设备的极限,随着设备PPI提升,我们光学规格,因为光学规格跟真眼接触,光谱图、透过率不断提升,另外我们公司做产品和产线,良率是一条生命线,我们良率也是不断的做积累,目前1000PPI我们良率能做到81%,基本上跟现在手机持平,这些产品的迭代依托的技术是我们这些年通过技术创新积累的自主专利六大核心技术,他们分别是Dual-SD技术,Fine-BM技术等等,MiniLED技术以及Fine Pixel技术。

  第一项,Dual-SD技术,我们可以将最小的显示单元叫做PIXEL Pitch,他的PIXEL Pitch从原来的8.9微米压缩到6微米,将PPI从840PPI提升到1400多PPI。

  第二个,Fine-BM技术,大家知道LCD是一种穿透型显示,右边这个图确保更大的穿透面积,但是因为衍射光和折射光影响,一般形成左边这个图的情况,大大影响穿透面积,通过Fine BM技术,我们将设计达成度达到接近上接近我们需要的这种穿透面积,大大提升产品的穿透率。

  第三项 C-Metal技术,这个主要解决显示里面的串色,颜色色偏的问题,以前我们的水平是在15度角观看这个屏的时候,它的串色水平是0.04,这是什么概念呢?就是我们在15度看绿色的时候,我们其实看到的是蓝绿色,不是真实的绿色,使用C-Metal技术以后我们更加视角能看到更真实的颜色。

  Smart PS技术可以穿透率提升10%。

  第五项技术MiniLED,MiniLED BOE一直是这块的推进者以及实践者,我们很早开始做这项技术,去年我们也是将这个MiniLED推向VR的产品,作为一个全球首发在VR搭载Mata quest pro这个产品在去年有一个首发,这块形成很多技术,这块有很多自主创新的核心专利。

  最后一项Fine Pixel技术,我们通过独特的设计以及工艺实现,可以将我们开口率提升20%,同时因为器件要控制开关电流,这样的话将漏电流也能降低10%。

  前面介绍六大核心技术,最终体现在产品上,反映在产品上,这里我们也是简单做的一个产品直观的对比。从目前来看,1200PPI产品,我们对比日系几个厂商做得比较好的水平,我们透过率水平比他们高30%左右,相应的功耗能降低26%,所以这块欢迎我们更多的合作伙伴与我们共同推进Fast LCD,将我们更多技术落到我们产品里,共动推动VR器件体验感,这些技术提升将直接影响我们每个消费者的体验感。

  作为未来,我们也没有停止在这块自主创新的脚步,未来我们G4,瞄准4K Fast LCD,为什么是4K呢?回答这个问题之前我们先回答的是作为VR,它的Retina视网膜屏是什么样一个显示屏,这里有很多概念,我们借用在我们标准情况下人眼视网膜分辨率应该是一角分内的像素数量,对应的话,一度角里面的像素数是60,这是理想情况,考虑实际使用情况,目前PVD做到40,人眼分辨率很难分辨出这个像素点,也就是说4K可以接近VR里面视网膜的概念。

  这块有一个图来说明,目前我们大部分使用的是2K的产品,大家其实真实去仔细的看的话,比如看到一些天空,其实看到一些颗粒感或者网格状,看到这个东西很假不是真实的东西,4K看到是一个真实的世界,这块器件提升直接影响我们对VR器件的感官,苹果这个月发布了第一代VR产品Vision Pro,使用的也是4K产品,第一步,将显示效果以及体验感拉满,其后再去做内容的开发,但是使用的是硅基OLED屏,大家知道这个有点小贵,所以作为Fast LCD来讲,我们一定下一步也是要做4K。

  4K区别之前2K、2.5K有什么难度?这里做一个直观的介绍,拿Mobile FHD视网膜屏做一个对比,它的PPI高的话在400PPI,最小的显示单元横向大概在21微米,21微米就是人类头发丝半径大小,VR如果做到4K视网膜屏的话,结合使用2.5寸左右,PPI在2000+以上,还不如光纤半径大小,差不多4微米,4微米面积上我们还要做器件,同时要透光,我们一定确保它在上面有一定透光面积,难度可想而知。

  举个例子,其中器件走线要求是1微米,1微米这个能力基本上现在超出了我们67S、68S曝光机的解析度极限,虽然我们PPI一直迭代,也过了7、8年的时间,但是目前各家的水平基本上就是在2.5K左右,虽然大家目前下一步的规划都是4K,但是目前各家也没有一个很好的解决方案,这是从器件角度来讲。

  从光学这个角度来讲,4微米直径我们做光的透过,看现在这个材料体系来看,如果我们材料体系没有大的提升的情况下,我们要做到两千PPI,比原来透过率下降30%,也就是30%的光浪费掉,高PPI现在大家已经提出了120HZ高刷需求,如果2000PPI做到120HZ这种高刷需求时候,留给液晶响应时间已经有原来的5毫秒压缩到2.5毫秒,这会带来穿透力进一步大幅降低,这些通过率降低最终反映到器件的功耗上,功耗会从1W水平翻倍到2W,2W头盔戴到头上时间长会发热,这是我们无法接受的。那我们的解决方案是什么,虽然有技术难点,我们作为BOE的技术人员来讲,我们的董学总一直教育,技术越有难度面临的机遇越大。

  在去年时候京东方布局B20建设,今年2月份动工,定位就是2000+PPI的VR产品,总投资290亿,基本上在明年年底可以有一个产品化,2025年能够实现正式量产,总规划产品VR产能19K,这也是我们一个重武器。为什么叫它在VR领域是一个重武器呢?可以说它是未来最先进的一个LCD的工厂,主要体现在几个方面,第一个,有先进的设备和工艺,尼康新一代6AS,还有佳能使用的DUV光源903T,能解决刚刚说到限宽要求1微米左右的需求,超强的工艺稳定性,我们的对位能力,刚刚说的1.5微米,在这个产线上我们能进一步提升到1微米,1微米基本上是现在全球最先进的一个能力,CD的管控精度也可以提升到0.4微米,这是设备和工艺两方面的优势。

  另一方面,因为VR对异物的要求特别致命,4微米的像素,一个异物10微米,盖住了你两个像素,这个对良率影响特别大,所以我们在这条产线也布局了全流程的异物管控能力,他有很多高精度的自动AOI检出设备,全检全修,第二,在重点区域,大家知道我们很多ICD工厂都是百级、千级、完级,我们布局的十极,搭配高精细的材料体系,结合设备、工艺、材料优势,再加上我们这些年的优势,相信我们明年会提出4K全面解决方案,我想到时候应该是Fast LCD领域里唯一一家,而且2025年能够实现量产。

  所以作为Fast LCD是BOE VR解决方案里面最重要的一环,最后,我们也共同期待合作伙伴,与我们共同推动Fast LCD的发展,最后推动元宇宙的发展。

  谢谢!

  主持人:谢谢建云总,通过今天B20在大家面前的正式公布,相信京东方在未来会提供更高PPI更优势的显示器件产品与大家合作。

  京东方在LCD技术与工艺上持续突破极限PPI的同时,亦于2017年布局高端micro-oled显示技术,投资建立BMOT产线。让我们掌声有请LCD技术开发中心,BMOT副总经理陈小川总进行主题演讲Micro OLE构筑极致系统之翼。

  陈小川:各位伙伴,大家上午好!下面我汇报的题目是:Micro OLED构筑极致系统之翼。

  首先,刚在一开始的报告里董学总描述了作为元宇宙的显示端口,我们显示在其中导致的PPI和响应速度带来的问题,BOE在Fast LCD上做了长足的努力和进步,有很大的市占率,建云他们做了很多努力。

  但我们作为显示行业的全球领导者,我们一直在思考一个问题,针对元宇宙的未来,针对VR/AR光机系统来说,最极致化的显示系统是什么,通过我们思考,结合半导体显示技术的积累、供应链资源的储备和合作伙伴的拉通,我们最终在云南建立了云南创视界公司,来专注于Micro OLED的技术和产品的开发,来服务AR/VR的新兴技术。同时,我们在做硅基OLED产业时候,我们是以多地研发协同的形式开展,在北京研发中心更专注硅基背板的设计,硅基结构的优化,合肥研发中心则有白光OLED的经验,以及成都研发中心有柔性OLED先进材料和产线管理的经验,我们集大成于一体,最终在昆明建成了我们云南创视界这条硅基OLED产线。

  我们于2017年11月开始建设,首先建设了一条8寸的硅基OLED产线,总投资12.5亿,在2019年8月实现量产,产能1.5k每月,我们又紧接着投资12寸VR用的更大尺寸的硅基OLED显示产线,总投资34亿,分三期实施,目前一期2.16K已在去年1月实现量产。

  下面简单描述一下硅基OLED的显示原理,硅基OLED采用硅基背板驱动OLED白光发光,再通过彩膜进行滤光,实现RGB的三色显示,所以与我们传统的LCD相比会有比较大的差异,一方面,我们要集成半导体工艺和半导体设计,另一方面,我们要把我们的白光OLED蒸镀到半导体上,在这上面做极薄的封装之后再做低温的彩色滤光片,已实现彩色画面的显示。我们在2019年率先点亮了当前全球最高PPI的0.39寸FHD的硅基OLED面板,分辨率高达5600PPI。我们当时用的是Single器件结构,但对于我们未来做一个低功耗、长寿命的显示器件来说,Single的器件是远远不够的。所以我们在2020年就把所有的研发的精力全部倾斜到叠层器件的开发中,所谓的叠层器件可以理解为两个单叠层EL器件串联在一起,带来的好处就是,电流流过的时候转化效率会提高一倍以上,同时,OLED的EL是靠电流发光的器件,所以,同样亮度下电流密度的下降也会带来寿命的优化。

  但是叠层器件会带来非常大的两个问题,一个就是做的叠层EL之后需要更大的跨压驱动,之前硅基OLED产业布局里面全是以6V的驱动为主,其驱动一个Single器件是足够的,但是6V电压驱动一个Tandem会导致它的亮度较低,所以我们把Tandem的器件导入到前期的一些产品的时候,亮度是一直没法超越,这是一个问题。另外一个就是PIXEL之间的电信号的串扰,所以基于这两个核心的问题,我们与国内的厂商一起协作,搭建了8V的硅基OLED平台,同时我们也自主研发了PIXEL之间防串扰的结构,最终实现了Tandem路线的全球首发,并在硅基OLED上实现了量产,达到了行业的领先。

  经过这么多年的努力,我们今年基本就是把8V的制程,Tandem的工艺路线,阻隔结构,和EL材料的优化,集大成于一点这就是今年我们所发布的为极致系统准备的4K硅基OLED显示。

  刚才在建云的报告里也讲了很多,我们在办公的场景里,我们希望高清,我们希望做到40PPD以上的显示,在沉浸游戏里我们希望低时延,在观影里我们需要投屏,我们需要更加轻薄,我们为此打造的极致化方案就是0.15寸的硅基OLED,分辨率达到4K4K,但单个重量只有3.5g,4000+ppi,比手机PPI提升10倍以上,刷新频率可以做到90HZ,同时,为了降低延迟,我们可以动态地调整Emission的duty。 所以硅基OLED整体功耗小于1.3W,这就是我们为极致的系统所打造的产品。

  下面介绍一下我们其中做的详细工作。

  超高清解析度方面,我们做到3522×3840,PIXEL SIZE只有6.3微米,这样就可以从1000PPI提升到4000PPI以上,在一些文娱的过程中能让显示的画面非常清晰,就像真实的世界一样完美。另外就是低功耗,刚才说了很多,我们一直坚持走一条非常难的Tandem路线,其实Tandem路线你可以简单地理解就是,我们的EL在工作的时候,它是整片的材料,会纵向的来导电,也会横向的导电,带来的问题就是,当A像素点亮的时候,B像素也会有电流并被点亮。

  所以针对这个问题,我们提出了我们自主专利的LLC方案,就是我们在一些核心层上做一些物理的阻隔,能够确保PIXEL之间的电性不会串扰。另外,因为当一个像素片扁平到目前开口只有1、2微米的时候,它就变成一个接近一个立体化的发光面,所以也提出了边缘高度控制、高度补偿的方案,来提高我们EL在一个畸变之后出光的稳定性和效率,这也是我们Tandem路线领先核心的技术,这样带来的效果,在1.35、4K的产品中的功耗,比竞争社低20%以上。

  另外,低延时方面,VR显示一些动态画面的时候,带来的问题就是,延时会带来动态的模糊,所以,我们一方面为了改善模糊,我们把刷新频率往高了提,从60提到90,另一方面,我们做到emission duty可调,当显示高动态画面时候,把emission duty可以动态调整到很小,我们显示这个球动态跑到这儿的时候,只把它最正确的这一段时间显示出来,所以在人的大脑内不会产生视觉的残留以及眩晕的感觉,这也是我们比较重要的一个技术点。

  但是,emission duty调节之后会带来的一个问题,因为发光的时间变短,亮度就会下降,所以,我们就要求峰值亮度做到五千以上,这样才能确保我们在现实的时候所需的入眼亮度。

  另外就是系统视效优化这部分。大家知道,屏的发光有一个亮度的分布曲线,当我们把我们普通的屏放到Pancake的光机里的时候,屏幕周围的光进入人眼时候的亮度会大幅衰减,导致人感觉中间画面比较亮,周围画面比较暗,所以画面的显示效果很差,基于此,我们在屏上面做了Micro Lens,来做chief ray angle的调节,这样带来的结果就是,我们屏幕的主视角在中间是垂直,到周围的时候会逐渐外扩,让它的视角不完全都是垂直的,而是越往屏幕的边缘越往外扩,这样搭配到Pancake光机里的时候,最终入眼的亮度会有一个非常大的补偿,最终带来的效果就是我们画面的均一性能有30%以上的提升。

  在目前单眼4K,双眼8K的情况下,SOC能力相对受限,从SOC的图像渲染到传输到显示上的时延上,都有一些瓶颈,我们基于人眼有一个相对清晰的30度的明视区,我们提出注视点渲染的方法,降低整个数据的负载,当我们输入1424×3072低清的图,和1296 x 2800高清的图,我们把高清的图和低清的图传进来之后做一个合成,在人眼明视区,我们给他显示一个4000PPI的图像,在只是感光、非明视区提供一个低分辨率显示效果,把负载功耗我们降下来,对整个系统的功耗会有大效率提升,接口带宽降低60%以上。所以,结合眼动追踪实时地确认人眼往哪个地方注视,把图像清晰的位置实时地移到人眼瞳孔注视的区域去。

  接下来,在硅基OLED做到瞬间5000nits的高亮的情况下,同时屏幕的尺寸到1.4寸之后,其实屏幕因为二极管的共阴极的阻抗问题,会带来我们在显示中出现中间黑周围亮的问题,虽然BOE的设计中已经导入了低损伤的PVD的设备,但显示画面均一性仍无法达到需求,所以我们做了画面亮度补偿方案,在图像输入时候做一个offset,这样我们显示时候亮度更均一。

  另外,Demura方案方面,其实在硅基OLED里,高亮度的均一性是相对好控制的,但是,当我们VR显示一个星空画面,或者一个相对灰的傍晚场景,对低灰阶的PIXEL电极的均一性要求非常高,如果PIXEL的均一性不够高,会感觉不透亮,或者有画布感这样的问题,所以我们也做的PIXEL级的亮度均一性改善方案,通过Demura的补偿,能够最终大幅度地提升PIXEL的均匀性。

  这也是我们近几年的积累,把我们所有技术积累全部集成在我们目前的4K的VR的硅基OLED上,后续如果在座的终端厂商有对屏幕的尺寸、分辨率方面的需求,包括光学视角的需求,我们都可以做开发,包括5万nits以上的单色率的显示,2万nits以上单色红的显示方案,为您做产品定制。

  另一方面,我们认为元宇宙目前屏幕的显示水平还只是一个初级阶段,所以在性能提升部分,高分辨率,超高亮和功能集成是我们仍然持续要去突破和优化的点,所以在高分辨率提升方面,我们要集成半导体更高端的制成,低漏电和高存储电容的一些优化,包括驱动方案和一些补偿方案,在高亮方面,耐高电流密度和耐高温的EL材料,以及一些光学的补偿,一些出光效率优化的方案。另外功能集成方面,我们做到注视点渲染之后,我们希望屏幕做眼球或者面部的识别,图像处理,同时希望在屏幕表面做膜材整合,提升屏幕直接匹配像Pancake这样的一些偏振光学系统的一些优化。

  以上我们希望能够为我们终端做出最好的硅基OLED产品,与产业链伙伴持续提升硅基OLED的产品性能,为我们元宇宙事业的推进做我们最大的努力。

  谢谢!

  主持人:感谢,自主研发之路都是艰辛的,京东方开放合作,期待与业界伙伴创造出更多让消费者惊艳的产品。

  当前无论是LCD,还是micro-oled显示技术,4K产品都为消费者带去较VR初期更逼真,清晰的体验,不过软硬件上有诸多挑战,接下来让我们掌声有请LCD技术开发中心,张浩进行主题演讲《虚拟显示步入4K时代》。

  张浩:各位老师、嘉宾,上午好,今天我演讲的题目是VR系统步入4K时代。

  前面董总提出了,VR系统面临的不足,首先,清晰度低,眩晕感强,舒适度比较差。

  舒适度比较低的问题,这些跟我们屏幕息息相关,我们不断的提升屏幕的品质。但是,我们发现做完之后整个效果确实有提升,但是,追求VR的整体效果要能达到更好的效果,光屏幕提升远远不足,比如清晰度问题,除了屏幕分辨率要提升之外,光学系统整个光学MTF传递函数也需要做进一步提升,以匹配人眼需求,同时分辨率提升之后,后端的传输、渲染这些会是一系列的问题,所以,为了取得一个更好的VR效果,我们也是除了深耕屏幕之外,也是联合各个合作伙伴,一块在VR系统上从整个系统层面探索VR到底应该做成什么样子。

  基于人眼需求出发,来看我们VR应该做成什么样子。首先,我们人眼这块来说,在中央区域它的视网膜像素感知细胞排布比较密切,在5到10度的范围内排布可以达到1角分,需要像素的显示个数就会达到1度需要60个像素显示,但中央区域向外之后,视网膜细胞排布逐渐的就会稀疏下来,但是,我们也不能把显示做成只有一块高清边缘不清晰的样子,因为我们的人眼也会去转动,转动起来之后会带来一个效果,我眼睛看到哪儿需要哪儿清楚,从物理上来说,整个屏幕或者光学系统需要清晰,整个硬件界面上全部的清晰效果。所以我们需要把这个分辨率往上提升。

  第二点,大的FOA需求,VR里面需要沉浸感,沉浸感是看人眼FOA的需求,从这个图上我们也看出,人眼的整个视场范围非常广,甚至超过了180度,达到200度的效果,而人眼双目立体区域达到120的的效果,这块做VR系统我们首先要确保我们双目立体区域达到120度,再看除了单一的显示面之外,还需要做多角面显示,如果要去贴合自然,是需要一个4D的显示系统,这时候就需要向未来进发,做这种多角面的显示才能够更加匹配我们人眼对虚拟显示的需求。

  首先,看VR光学技术这方面,光学技术大家都知道,我们成像的话是利用光学透镜的成像原理,呈正立放大的虚像。目前VR显示技术分成四类,首先是最早的非球面单面系统,这个做完之后就是我们最早的VR形态,它会比较笨重一些,不管在重量上还是体积上都比较大,对VR体验不是很好,后续我们向着把透镜做薄的方向做,把光学总长降低,但是也带来一部分问题,在我们显示透镜边缘这块,会有一定色散,有一点光散,会导致对比度下降以及画质下降问题,光学系统来说不是很好的方案。

  向多透镜方案做,可以有效的把光学总长压缩,保证效果,做的比较多的是偏振方案,利用偏振光折返方式做,把光学系统结合起来,在物理结构做到轻薄化,这是追求轻薄最多的光学系统。

  但是做了折叠效果以后有一个弊端,会把我们的光效直接降低为四分之一以下。

  前面说光学部分,接下来驱动部分,随着追求沉浸感以及高分辨率需求,对我们整个驱动系统来说提出一个高带宽需求,按照刚才60的PVD计算的话,我们需要做4K的分辨率,但是按照这个分辨率去做,在带宽传输协议,还有续航功耗方面,会提出一个个的问题。

  以我们4K的系统为例,我们一个4K的MNT或者TV的显示,它是4K60HZ,带宽达到15G,但是VR需要更高的刷新频率,而且VR4K分辨率是我们传统TV4K分辨率两倍,带宽达到38G需求,而且是双屏显示,会进一步翻倍,翻到76G的需求,76G的带宽用现在传输协议来说很难达成,所以传输带宽这块需要不断做技术突破,一些压缩,以及有效传输的精简。

  第三部分,整个VR系统里面有一个交互的痛点问题。我们在VR里面追求舒适性和自然操控,比如手势交互或者人生来就有的操控使整个体验更好,还有沉浸空间感,现在做的See Through,还有空间音频,整个会把体验者代入VR世界,这个目前做的还不够,我们还需要在这方面继续的努力。

  还有内容方面,随着我们分辨率的提升,实际上不管是内容的播放,以及内容的渲染都会面临巨大的问题。

  首先,VR的显示,4K显示呈现出8K的效果,但在内容播放上会呈指数级别的提升,因为我们需要做这个全景,全景需要把分辨率提升到16K的水平。这方面需要我们在高质量编码这块做这个提升。

  在渲染这块,因为渲染分辨率越来越大,对GPU压力越来越大,造成渲染越来越慢,整个体验有眩晕的感觉,这块也是需要我们做不同区域分辨率的渲染,去解决这个问题。

  接下来看BOE这边做的VR工作。首先,也是刚建云也讲,我们最早从2014年接触VR这个领域,当时Oculus DK2的产品,我们拿到之后觉得这简直就是未来的产品,然后我们在2015年底成立VR专项组织做VR产品的开发,结合我们做的插黑显示技术,以及我们的Fast LCD,把液晶响应时间做下来之后,把我们高分辨率,还有快速响应的Fast LCD技术提升到VR的行业当中,整个我们搭建一个1K1K的驱动系统,当时的PVD就是十几水平,给客户看推原先的AMOLED做的,只能AMOLED做的产品,也能用Fast LCD做,而且Fast LCD有一个PPI的优势,接下来把Fast LCD的PPI进行提升,提升之后发现驱动又是一个问题,我们做了2K2K的双驱动方案,同时,我们把PPD提升到24,当时在2017年也是属于业界的首发,给人清晰的体验。

  在2018年,我们进一步把PPD提升到48,做到单眼4K4K智能驱动系统,这个是结合注视点渲染做到,把我们数据的带宽降低到20%。提升到这个分辨率之后我们发现,进一步的向上提升分辨率真是非常非常的困难,不管是我们屏幕上渲染、传输这方面、光学全都是问题,然后高分辨率上持续做一些探索,另一方面,面对4K4K这个驱动系统整个面临这些问题,我们去做了一些完善和优化。

  首先,2019年做了直下式MiniLED驱动系统,实现超过一万动态对比度,然后提升到10倍以上,达到OLED显示水平。后面我们又做了焦距调节系统,做近视改正,2021年做了轻薄系统,Pancake光学损失太严重,我们做了用多透镜把我们整个光学的效能提升起来,提升到85%,而且做VST摄像头到屏幕的直传系统。

  在2022年,我们做了无极变频系统,实现我们VR显示的1Hz步长调整精度,达到更加流畅的效果,更小的能耗。

  今年6月10号,苹果发布了Vision Pro这个产品,这是真正标志我们VR行业4K时代的到来,使用是三片Pancake结构,2片Micro OLED,然后整机上遍布各种传感器实现人眼及手势的交互,这个也是标志着我们4K时代的到来。

  基于4K时代的到来,BOE方面准备了这些技术。首先是超薄4K光学系统,我们利用不断压缩整个光学系统的使用距离,由传统的40毫米做到现在的14毫米的距离,现在这个就是我们产品的一个规格,使用我们硅基4000PPI产品,实现了帧率90,视场角90,总长只有14,体积22的显示效果。

  第二个是我们的超高清4K场序的系统解决方案,这个利用我们超高PPI工艺的超高开口率技术,以及配合超高频驱动系统,还有时空渲染DMC的技术,实现LCD的4K4K技术。现在做到最高的一个刷新频率可以达到480HZ,因为直接使用LED背光,没有彩膜技术,色域可以达到100%的DCIP3,由于场序引起的色分离的抑制,我们系统方案整个把它的降低了40%,功耗的整个幅度,整个系统4K功耗降低50%。

  最后,我们超高清4KFoveal系统,这个系统也是结合眼球追踪使用BFS的渲染技术,高精度的眼球追踪,以及低延时HDR处理技术,把我们眼球注视点区域图像高清传输,其他地方压缩传输的技术,达到系统整个高效的使用,这是做到了90赫兹,对比度10000,视线精度可以小于0.5度,降低80%的带宽。

  使用这些技术,结合刚才小川还有谢建云做的Display的高清4K显示屏,再加上我们合作伙伴不断做光学方面超短焦,高光效的优化,再加上我们整个系统级别优化,我们期望和大家一起更快地走进VR4K时代。谢谢大家!

  主持人:感谢张浩!

  接下来让我们掌声有请耐德佳创始人,程德文教授进行主题演讲《轻薄化高清VR/AR光学显示技术》。

  程德文:谢谢大家,首先,非常感谢京东方的邀请,非常容幸做这样一个分享,刚才听了包括董学总,刘教授、王教授的报告,还有BOE演讲,非常振奋,无论屏还是显示都有很大的突破。

  这个题目也是去年取的,打开Web3.0、元宇宙入口,主要是介绍一下轻薄化高清VR/AR光学显示技术。

  首先是背景,我这里分了一个类,也是网上看的,Web1.0时代是计算机互联时代,包括硬件终端还有软件平台,我们处于追随、仿制状态。第二个时代,我们正在经历的时代,就是我们各种智能终端,包括手机、笔记本这样的终端,构建移动互联时代,这个我们已经极大的影响了改变了我们生产和生活方式。另外一个,我们即将迈入的时代,就是Web3.0,也是我们说的元宇宙,人机深度融合的时代,这个里面我们在座的各位同行,我们能够做的事情会非常非常多,在这里面有非常大的基于可以做很多的事情,这个也是我们可以去实现,从仿追到创新引领,给我们提供非常大的平台。

  我主要是显示,从近眼显示刚才提到很多,近眼显示是VR/AR的屏幕,屏极大影响电子设备的形态,包括电视机、显示器,包括最开始的台式机显示器都是CRT的,现在电脑的屏幕都是LCD的或者LED的,都是可以做到超薄的状态,以及我们的手机,现在其实大家把手机拿出来,正面一看基本上都差不了太多,都是主打薄,全触控的交互,以及到现在进入AR/VR元宇宙时代,会往轻薄化走,1968年达摩克里斯之剑没有办法戴在头上,悬挂起来,现在基本上已经很多偏向眼镜的形态了。

  从屏的角度来讲,有很多的要素,包括尺寸、分辨率、亮度、色彩等等,这只是列出一些,包括刚才提到的功耗,当然后面还有性价比,很多工程化的问题,这些都是非常关键的要素。

  另外,从屏的发展上来讲,有时候我们称第二块屏,就是经历了1、2、3代,现在进入第四块屏,可以实现无处不在,亦真亦假,虚实融合,万物显示屏幕的时代。另外一个角度,AR显示,就目前处在的是一个多元化显示,生活中充斥着各种各样的屏幕,包括手机、电脑、电视机、投影屏等等,从人的需求来讲,一方面我们希望这个屏幕越来越大,包括今天这样大屏幕,会给我们带来非常高的沉浸感,但是另外一方面,我们希望屏幕越来越小,希望便携、移动计AR/VR作为一种新型显示,可以实现多屏归一,很多显示可以在一幅AI眼镜解决,可以实现高沉浸、3D、大屏显示。

  讲到AR显示,需求方面有很多的需求,简单列出一些,包括重量、厚度、视场、空镜、质优、杂光、分辩、光效等等有很多很多要素,这导致了整个AR/VR光学设计会存在很大的困难,因为从原理来讲就是一个放大镜,一个凸透镜,因为要加载这么多属性在里边,所以导致AR/VR广域设计极其困难。

  简单分享一个观点,轻薄小型化、宽幅高分辨是整个AR/VR发展的必然趋势。

  包括宽幅高分辨显示,可能文字画面很大,但是信息PPT不够,导致图像模糊,这好像也看不太出来,好像分辨率不太够。其实这个相对来说能看得清楚一点,宽幅高分辨,这是我们追求的目标。

  另外一方面,轻薄小型化也是我们追求的目标。最左边那幅图给出传统的VR光学,轻薄小型化很重要的一点把你虚拟光路跟往外看的透视光路分离开来,同等的参数条件下我们会发现用传统的光学重量会显著增加,厚度也显著增多。这个时候我们必须通过一些新的技术,包括像自由曲面,像光波导,光波导又分很多种,实现光度分离,实现超薄显示,我们做了很多工作,像光波导也好,全息波导也好,今年主要做的工作是自由曲面这一块,我们也想尽各种办法,满足显示指标情况下AR光学变薄,做到高清显示。

  接下来我们介绍一下我们做的一些轻薄化的AR/VR光学。我们其实一直在做自由曲面AR,我这里列出目前,包括之前做的解决方案,这种结构对于早期的虚实融合显示是非常经典的结构,唯一缺点厚度厚一点,无论从光效来讲,显示的视场来讲,都是非常好的选择,这个方案跟Micro OLED是非常完美的解决方案,就是因为Micro OLED相对来说亮度弱一些,这里面都是采用自由曲面技术,我们一步一步把它往轻薄化方向走,就是它的厚度,那个指标稍微有点不太一样,但是大部分都能满足我们使用需求,我们也通过这几年努力,现在最薄的厚度基本上到了7毫米,因为我们这个屏就在这个地方,这样的话整个整机的厚度比较薄,现在光波导很薄,可以做到1到2毫米,还配合投影系统,所以整个厚度未必比我们会薄,我们配备的显示器都是Micro OLED,我们应该算是比较早,应该是Micro OLED的第一批客户,包括0.39的,0.7的,0.49的,我们都在用。

  其实它这个里面设计存在比较多的困难,包括我们的描述,光线跟结构的分离,我们采用了很多的设计约束条件去 使它达到最终的在它的频率处有一个比较好的值,另外,它的畸变我们要严格控制,要做电子畸变导致功耗增加,还有平均值,这些都是我们要努力控制的。

  另外一个,设计过程中我们也做了很多设计方法的研究,包括提出新型的描述方式,去增加设计的自由度,提高最终的设计效果,这里面我们通过我们自研的一些描述方法,包括拼接,还有二次曲面,提升它的设计效果,要不然有时候成像品质不一定达到特别好,成像质量跟畸变之间有时候要做一些平衡,另外一个,我们透视光路这块,整个成像质量以及畸变都是控制特别好的,满足一个使用要求。

  另外一个,刚才讲的是成像的设计,我们看到画面锐不锐,清不清晰,VR光学系统很重要一点,杂光,杂光跟成像处于同等重要地位,杂光会影响看到画面的清晰度、对比度,甚至会有重影,我们做了非常详细的分析工作,我们一个是对显示画面范围内的视场进行分析,我们把屏点亮,在人眼里面看可视区域内有没有杂光,我们分析完发现基本没有,这个没有问题,但是,在视场外可能有一些杂光,这个白色的框,它其实基本没有杂光,外边能感觉到光,这会影响整个观看的体验和舒适度,所以我们进行深入分析提升解决方案,比如光路要进行调整,或者加入消光的措施,把边缘的消除掉。

  最后我们通过手段跟方法,我们可以看到整个显示区域之外基本上没有杂光,可以达到我们接受的范围,所以这样的话,一方面成像要清晰,另外一方面杂光要控制很好。

  这是我们做的样机小于0.5毫米,重量8G,加上屏跟结构。

  刚才提到Vision Pro,这是VR的光学,Hupervion做了一个分析,实际上这里面是一个曲面贴膜Pancake的光学方案,它的视角也比较大,这里面我们分析了,它应该也是用了一些自由曲面技术,因为我们也建构这种模型,因为我们贴膜这块还在攻克,怎么设计还是做过的,用自由曲面有一定的提升。

  简单讲一下,VR Pancake方案有很多优点,一个三角大,一个还薄,优点全占了,就是光效低,为什么从角度讲有这样一个优势?实际上就是因为采用了这种折返式的光路结构,我们用单片式镜头设计,就是说用透视结构和折返结构,我在同样焦距下,用折返通路曲面的弯曲程度显著降低,我们推导了光角度公式,如果用直透方式,R值是13,这个是86,越弯曲带来的像差会越大,他的像质越差,所以用这种折返式光路可能为整个VR光学带来非常巨大优势的地方,这是我们做的VR的光学设计,我们也是发了几篇,在我们这个领域相对好一点的文章。

  接下来介绍一下我们的成果,一方面是用这种BB方案做的联想A3产品,这是办公场景,还有光影的,还有办公的一些应用,远程协作的,这个是用Pancake做的VR的一个项目。这个是自由曲面光学,跟小米做无线探索板,海耶MIJIA的美学相机,这里面显示屏也是咱们BOE的。另外,高通的一二三代光学全是我们做的,这里面跟京东方一起合作推的三代的AR引进参考设计的光学模组。以及还有一些其他的行业,包括像骑行、工业,还有视力弱视的。

  我们公司在北京叫北京耐德佳显示技术有限公司,三个平台,一个在北京研发销售平台,一个在镇江的自由曲面精密成型和装配平台,还有江西上饶一个省级的精密光学检测平台,投入比较大,有非常顶级的设备,我们也获得包括像北京市技术发明一等奖,这个当时是BOE拿了特等奖,我们是拿了一等奖。

  我们提供的产品跟合作模式,包括BB的光机,还有自由曲面的,这个应该是我们第四代的产品,第四代的光学,这是我们波导的,波导的基本上也会有一些比这个还创新的一些方案出来,现在还在进一步研发过程中,还有VR的光学。

  我的报告到此结束,非常感谢各位。

  主持人:非常感谢。接下来让我们掌声有请惠牛科技创始人,张韦韪博士,为大家带来的《AR屈光度可调B技术的发展及展望》。

  张韦韪:非常感谢做这个分享我们也是专注于AR/VR光学模组这块,今天很多大佬在场,学到很多,行业的一些情况在座的都是高手,就不详细介绍了,我简要的说一下我们惠牛公司的情况。

  我们是2017年成立,最开始我和另外两个同学我们都是学光学的,经过6年发展,现在整个研发销售团队35个人,基本都是光学相关的专业背景,平均有5到10年的在光学行业的从业经验,同时,偏制造这个环节,我们有自己的工厂,有接近100个工人。

  我们成立时候首先涉足AR光学模组,其中选择CA的方案,行业里面叫BB,我们是全球第一家BB光学模组供应商。后面我们添加了一些其他的产品线,包括AR里面的衍射光散波导,在2019年我们涉足VR的Pancake。

  简要介绍一下公司情况。刚刚提到2017年开始研发BB,到2019年我们拿到K级的订单开始量产BB方案,2019年也做出我们衍射和光波导的样品,持续到今天我们也一直在迭代衍射波导,我们最新的做数字的波导片,就不详细说了。

  VR Pancake从2019年上半年开始做,当年做出样品,从2020年开始我们对VR的Pancake进行了量产。到2021年,BB方案获得更多的客户的认可和批量采购,所以2021年我们BB有万套出货,对消费电子来说万套不是一个很大的量,但是放在中国的AR行业我们的BP的出货量占比还可以。

  这就是我们三个主要的产品线,其中BB和VR的Pancake广泛用到BOE硅基屏还有Fast LCD屏幕。

  今年我们发布了两个新品,两个新品都是围绕BOE的最新屏幕,一个就是1.3寸的硅基,屏幕基础上实现95度的Pancake模组,我们特点就是第一,屈光可调,可以实现500度以内近视度数不用戴眼镜,另外,在鬼影控制上做了好几年努力,鬼影度持续比较好的状态。右边Pancake PK100基于BOE2.56寸LCD屏幕,视场角能更大一些,100度,鬼影我们在持续改进,我们测出来鬼影度在3%以下。

  我们整个惠牛,一半工程师设计、专利环节,还有一半工程师围绕量产,其实主要业务模式就是把模组量产出来出货,我们持续扩大我们百级的面积,现在是一个一千平左右的状态,现在获得一笔新的融资,可能扩大到三千平左右。

  有些图片介绍我们的生产情况,过去这几年AR/VR光学模组累计出货10万套,月产能3万套,最新一轮融资我们拿到了正在扩建,年内扩建好,扩建好之后月产能翻2到3倍。

  光学生产环节我列出来,从2019年从后面的组装和测试产能建起,过去三年往光学加工前端做了延伸,包括注塑、镀膜、镜片加工等等环节,算是光学生产一条龙服务。

  这里想额外提一下,我们在光学模组量产环节,我们自己摸索了一些设备,有一些设备是自己模组业务自己使用,有些设备我们对外销售,像有一些自动组装的,这就是我们自己厂内使用,我们自研的一套参数测量的设备,这个我们是对外销售,行业内已经好几家的客户找我们买了这个。

  这个设备首先有两个特点,第一个,测的参数比较全,我们两个版本,其中PRO版可以测17个参数,第二,测得比较快,10秒钟之内测好,跟已有的其他竞争相比是我们的特点,已有的供应商不多,主要是欧美的3家,他们测1分钟以上,从性价比来讲,我们比欧美设备实惠很多,比他们价格低一个量级。

  这一页简单介绍一下BB方案跟其他几个AR光学方案相比的特点,也是解释为什么我们2017年进入这个行业首先就去研发和量产BB。

  中文名叫共轴空导,空心相对来说能够让重量更轻一点,这个其实也是对应董总说的对光学诉求轻薄化,BB没有那么薄,是空心的,比较轻,也是共轴体系,可以量产,做出来的清晰度等有保障。因为是空心的,所以里面没有全反射过程,跟自由曲面棱镜相比综合光效没有那么高,整个虚像光效比波导好,尤其衍射光导相比,AR场景虚实融合叠加运算的话,对场景的穿透性有要求,这种情况下波导类可能成为选项,这是为什么2019年同步做衍射波导作为我们一个补充方案,因为它有更好的通透性。

  我们在BB里面的比较大的特征就是我们去做一个屈光度可调,因为使用者近视人群比较多,竞品方案是直接兑上来,这样体验比较好,另外一个,定制一个近视的镜片,这样卡在眼镜上,这个有短板,包括不同人度数不一样,使用时候要给一盒镜片,携带不太好,另外近视镜片容易丢失,这样在光学设计和结构上提供屈光调节功能,可以做到500、600度的调节,左右也可以单独调,这也是首创,在AR领域,尤其BB方案上,我们首家引入概念可以直接很方便的实现近视眼对虚像的观看,就是把AI场景做了一个简化,5年前更多琢磨如何虚实融合,过去几年想能不能作为抬头显示使用,抬头显示场景下屈光调节的AR方案比较实用比较方便。

  我们针对BB屈光可调,把所有的调节方式全部布局专利,所以这块我们比较自信有这个专利壁垒。另外,BB方案本身有一点短板,向外漏光,会涉及到消费者使用隐私,我们针对这个点去做了复合偏正系统,各种偏正膜材搭配等研究,把整个对外漏光线基本消除,右边这个图,这只眼,两个屏幕都是亮的,这只眼我们基本上在前方看不到使用者使用的画面,所以隐私得到比较好的保障。

  在漏光的技术上我们布局了专利,本身也会有一些虚像,也会有一些杂光,我们针对杂光也做了全方位的研究去消除,也提交了一些专利保护。

  可能我这个资料里面没有展开讲VR,VR大家比较熟悉,Pancake它的好处,我们过去几年有大概五分之一研发成果围绕VR的Pancake。

  最终我们这个模组获得了比较多的下游的整机品牌的采用,比较有代表的华为去年12月发布的微型Glass,用的是我们的BB光学模组,还包括业内dreame glass 等,VR Pancake我们有两个比较代表的客户,一个是创维VR,一个是大鹏,这是我们两个重要的合作方。

  到最后,我们公司的名字叫惠牛,有个梗,牛是牛顿,惠是惠更斯,这两个人是光学学科鼻祖,所以我们取这个名字代表公司的定位,光学团队专著做光学,选择AR/VR或者元宇宙这样一个朝阳赛道,希望能跟京东方还有在座各位专家一起推动行业发展。谢谢!

  主持人:感谢张博士的分享。

  端口器件的持续向前发展,离不开客户的高要求与将优秀的产品送达至终端消费者。接下来让我们掌声有请小派科技创始人翁志彬总,进行《高性能VR是进入元宇宙的必经之路》主题演讲。

  翁志斌:各位好,感谢邀请,今天跟大家分享交流整个VR的硬件和产品。

  我今天分享的主题是高性能VR是进入元宇宙的必经之路,这个理念是10多年前第一次做VR时候,一开始觉得第一次接触VR,整个沉浸感是前所未有的感觉,实际当初显示效果让我重新回到20年前,可能九几年看电视机的感觉,觉得元宇宙很好,VR很好,但是我们需要高新能、高显示的技术和产品才能真正带给大家最终的终极形态,所以基于这个理念,小派一直以来坚守这个理念,我们2017年挑战了全球的单眼4K,双眼8K,包括我们视长角是200度视野,最近我们也跟BOE合作,计划挑战单眼6K、单眼8K项目,这里继续分享一下整个行业和产品理解。

  我认为元宇宙是平行宇宙,从我自己的理念来说,我觉得整个元宇宙从小派使命来说,我们是想让人类成为多维时空的物种,这个理念跟马斯克对标,马斯克说让人类成为多星球的物种,前两天马斯克跟扎克伯格约架,他们对未来元宇宙和市场有不同预期,马斯克认为,未来可能50年我们人类社会可能会移民到外太空,但是我们认为这是个精英计划,可能解决5%的人,那95%的人在地球上难道没有好的宇宙可以移民了吗?我们认为将来元宇宙是很好的方向,可以提高整个效率,满足我们下一个时代的人的需求。

  大家解释一下为什么大家对元宇宙有很好的期望和愿望呢?从马斯洛心理需求来说,人的需求是一个金字塔的,我们同低到高,其实从生理需求、安全需求、情感尊重、自我实现,最高是自我实现需求,我们从低下往上达到这个标准的话,可能需要时间成本和资源成本,人的生命也就三万天,我们的教育占了六千天,还有工作,还有很多时间,在目前的寿限之下,我们只能做单选题,比如小学、初中、高中、大学毕业工作走向创业,我们成立家庭,整个选择是很有限的,因为 都是做单选题。我觉得未来元宇宙是平行宇宙,人的生命有限长度是固定的,但是我们可以在宽度上面扩大,元宇宙技术最终可以帮我们解决我们在有限的时间体验不同的人生,体验不同的环境,体验不同的时空,包括我是一个从工作、从技术做产品,做创业,做一个企业家,刚才我也想体验一下教授生活,体验一下艺术家的生活,但是没有机会,我觉得未来元宇宙可以让我们重新花很小的代价体验不同的人生,包括场景,包括地理,包括天文历史,我觉得这是我的理解,元宇宙的本质是用一种新的技术方式让人类重新在有限的时间段体验不同的时空,这也是我们小派的使命。

  本质上我们做产业链,做设备,做产品,最终希望带给用户体验是提升人类体验感,我们想做的事情、场景都受制于环境,我们体会不到,未来元宇宙和AR/VR可以帮助我们很快速、低成本体验这些技术,从而提升整体的幸福感。

  我如果让每个消费者,将来每位人都愿意进入云宇宙,前提条件是这种体验是不可替代的,而且是高质量的体验,所以我们认为,真正核心指标是沉浸感,只有好的沉浸感才能让大家愿意体会新的技术,因为我们现实社会、现实宇宙本身就是沉浸的,我们将来的VR设备、VR产品来说,一定需要很高要求的沉浸感才能让我们能够替代这个真实宇宙,去向往新的虚拟。

  这是我们总结的,现在从十多年前,我们那时叫VR0.5时代,到1.0,到2.0,慢慢进入3.0时代,3.0时代,首先我觉得三个维度,首先我觉得自然沉浸感,还有自由、自我,资产沉浸感有这么一个指标,视觉沉浸当量,包括我们整个VR产品,首先是视觉产品,首先视觉上面有几个指标,一个PPD,一个FOV,一个刷新率,我们第一个挑战的其实是PPD,从一开始2015、2014年整个PPD只有6到8,到后来我们做到10到第二代产品是比较成功的产品,做到18左右,小派最新的做到39、40,苹果是39、40,未来一定是60,这是一个条件,人类左右视觉可以看到很远,上下可以做到140到150度,但是目前整个AR/VR设备FOV不大,小派第二代产品想挑战极限,第二代产品直接做到对角线200度,200度视野时候很多困难,比如计算量很大,电脑带不动,游戏内容需要重新适配,但是当你看了200度视野时候会不去的,人的体验很难做降维,第三大,刷新率,从60帧,到90帧,到120,这三个指标我们同时要,我们既要好的PPD,又要大的视野,有要高的刷新率,整个硬件迭代过程中非常困难。首先硬件我们先解决PPD,接着马上解决FOV,最终刷新率。

  在早期,派我们很难同时解决三点问题,所以我们一开始解决PPD问题,我们小派带第一代产品做到20,第二代在PPD满足情况下做单眼4K,显示屏也是跟BOE一起合作的,我们做到200度视野时候刷新率做不上去,一开始75帧,后来挑战了180HZ,这是目前业内最高的VR头显,我们有一个子项目。

  我觉得视觉沉浸感最重要的指标,我们同时要满足这三点,如果我们的PPD做40,40我觉得是一个良好,最终我们做到优秀60,200度视野,刷新率240帧,做到真正类人眼的视觉。

  PPD讲到了,我自己看,包括苹果,我们小派目前40PPD刚刚达到良好,看不到颗粒感,离视网膜级别还差一个等级,希望未来3到5年继续能够上升到50到60PPD。

  也提到视野,人眼视野有双眼、重叠视野120,上下视野140到150,左右到220,我们最新一代产品在努力实现,水平200,双眼重叠视野118,上下视野135。

  刚刚提到刷新率,刷新率是90帧,体验完才有对比,最早觉得45帧到90帧也挺好了,但是当体验过120再反过来体验90会发现差别很大,如果120到140又有差别,所以我们刷新率是VR基础应该达到优秀的标准160帧还是需要的,目前普遍做到120,还是困难一些。

  刚才有几个指标,一个是我们的整个视野指标,我们的PPD,很难的是你同时要把这几个指标完成其实在我们的右上角,大部分情况下我们只能追求PPD我们FOV,我们小派是高性能VR,所以我们想追求在大FOV和同时高PPD,这是我们追求的目标。所以我们最新的3.0产品除了PPD提升,一定想办法FOV更大的提升。

  沉浸感分为自然沉浸感还有自由沉浸感,这点对我们做VR头显印象深刻,最开始我们定位方案都是大基站,不自由,最开始我们定位是解决自由的问题,同时还有无线,因为我们PCVR时候需要拉一根线,这个线就限制了整个运动,整个活动,整个体验的感觉,所以无线,包括空间音频,体感,人体工学,我希望这个产品随时随地能用,而且功耗是全天候的,就是能够支撑8个小时,目前一体机用它体现问题,这个方面还有待提升。重要的我觉得达到VR3.0的话,自由一定是很重要的,包括交互,包括人体工学,包括无限化,包括重量都需要提升。

  接着我们认知沉浸感,我们新的元宇宙里自我意识很重要,之前有实验室叫照镜子实验,怎么区分一个动物是智慧动物还是非智慧动物,给它一个镜子,他照一下觉得镜子里人是自己就是智慧动物,像猫、狗没有这个自我意识,VR里面达到这个效果,像我第一次在VR里面有这么一个内容,我自己给自己照镜子,通过眼球技术看到眼睛左右动,在VR世界里有一种自我意识是很奇妙的感觉出来,人能够在我们的情感表达,包括表情、体感、心跳等在虚拟世界表达出来传递出去,能产生我们进一步自我意识,所以这里面表情、眼神、动捕等都是我们下一代的一个特点。

  刚刚提到苹果,苹果是标准的VR3.0,因为它的视觉沉浸感,包括交互沉浸感,还有自我意识都还是不错的,但是,我觉得整个视野还是停留在100度左右,当然,后来这个产品出来之后小派觉得很欣慰,原来走高性能VR的在全球范围内能够坚守这条道路的一直以来只有为数不多,我们小派是最重要的角色,现在苹果进来了走的路线也是这个路径,因为元宇宙有很多这个方向,但是每家公司、每个团队走的路径不一样,有些可能是走性价比,因为他需要很大规模的量,有些走高性能的,但是我觉得苹果走的路线也是高性能路线。

  刚才提到单眼4K,其实单眼4K的PPD跟我们目前包括将来推出12K,前一段时间跟一个媒体人见过,他体验过苹果的产品,接着体验了我们小派的产品,我们PPD是39,他也是39到40左右,但是我们光学比他们好,我们用了非球面的玻璃透镜,他觉得小派产品显示效果比苹果再提升10%到15%,这也是很难得,除了显示做好,把整个视觉做好之后,光学也很重要,这点是我们在当下能够超越它的。

  刚才提到这种交互,就是这种自由交互,还有自然视觉的交互方式,本质提供了一种场景。

  沉浸式娱乐可以提到。VR整个头显,苹果研发7年了,VR个头显引发社交领域很多,软件、光学、传感、人体工学,达到VR3.0投入还是很大的,我觉得苹果花7年出一款产品正常,没办法一两年之内把产品做到VR3.0的标准。小派我们不是苹果,我们一代一代来,我们目前做到第三代,我们在很多单点技术也能做到前沿。

  这里提到显示和机器视觉,双显示屏的光学技术,是我们主要的方向。这款产品是我们BOE合作的单眼6K,单眼8K,是小派下一个想挑战的重点。

  我们一直想做天花板的事情,就是在右上角,我们不想只做左下角的事情,这是我们的理念,当然也很难,正因为难,挑战完才有机会,包括我们的护城河。

  因为我们坚守高端的VR头显,消费群体是金字塔,小派理念是想做最好的头显,我们可以往下打,这个产业里面有不同的玩家,META也是很要的玩家,他是希望解决规模化的文地,我们是希望解决性能化的问题,每家公司都往前走才能带领整个行业,才能给消费者带来更好的体验,所以我们大部分80%市场在海外,在高端市场上面占有率还是挺高的。

  Oculus也是这个理念,他是创始人,他也是希望做高性能的,也是我们小派的用户,所以我们在海外影响力比较大,国内随着行业发展,慢慢的更多消费者也会接受高性能的VR。

  谢谢大家!

  主持人:感谢翁总分享,高性能VR对显示期间分辨率以及刷新频率提出极高要求,相信京东方优秀的研发以及生产运营团队,未来跟客户碰撞出更多的火花。

  京东方在技术与创新发展模式上进行着诸多探索,视延科技是集团孵化出的光场3D显示方案公司。接下来,让我们掌声有请视延科技的副总经理,吴仲远总做首场新品发布会。

  吴仲远:各位领导,各位专家,大家上午好!感谢大家来参加我们视延科技首款创新光场3D产品发布会,有请提示一下,我们这是一场发布会,中间是允许鼓掌的。

  视延科技是谁?视延科技是一家年轻的创新型的初创公司,京东方领投,创研团队跟投,采用这样一种市场化方式,从京东方孵化出来创新型示范企业。我们公司成立于今年4月,我们的公司创始人和董事长是董学,目前团队共有员工66人,大部分来自于我们京东方研发组织。

  视延科技核心业务,我们专注于提供面向光场显示解决方案和定制化服务,我们为自己的定位是一家轻资产的方案公司,其实在正式孵化成立之前,我们已经经过了多年的技术积累,目前在光场方向,我们已经累计专利布局约200余件,覆盖范围包括从系统、芯片、器件、工艺、设计等方方面面,同时,200多件专利已经注入我们公司的无形资产。

  未来,我们系统化方案产品化将依托于集团母公司强大的产业能力和产业资源,确保产品高质量批量化交付。

  今天我们论坛的主题是元宇宙,我们认为元宇宙的基础技术之一就是新型的3D显示,在PC和移动互联时代,我们人机的信息交互是通过二维的显示界面进行的,在未来的元宇宙或者Web 3.0时代,显示和交互的界面将是三维的,我们将沉浸在由物理世界影射出的虚拟的信息世界里,光场3D显示将是元宇宙人机交互入口,是元宇宙最基础的硬件支撑。

  人类出生开始已经习惯了生活在一个三维世界里,习惯在自由的空间用超大清晰的视野清晰舒适的观察世界并且和外界互动,我们希望虚拟世界中同样可以获得自然真实的感受,传统的3D显示虽然可以用双目视察的原理让人获得立体视觉,但是却难以带给人们沉浸感的观看实验,传统显示设备需要佩戴眼镜,清晰度低,串扰大,长时间观看也会引发头晕等生理不适,这阻碍我们将虚拟的信息世界和真实物理世界之间的融合打通。

  因此,让显示带给人们自然真实的观看感受是我们一直追求的目标,让视觉无限延伸是我们视延科技的愿景,也是我们公司视延二字的由来和具体含义。

  秉持这样的初心,我们经历4年技术沉淀,厚积薄发,今天,我们为大家带来一款创新的光场3D显示产品视延SYSPACES,SYSPACES有空间的含义,我们希望未来的显示和交互的界面不再是基于一个个二维的窗口,而是基于三维空间立体的界面,视延SYSPACES是一款32英寸16:9的单人光场3D显示器,拥有目前行业内最高的1.3亿空间信息带宽积,同时它的单眼空间分辨率也达到4K视网膜级行业标杆水平,这款显示器拥有超大的景深空间,即使在2米的景深范围内,能够展现低串扰和低摩尔纹的优异的3D高画质。同时还有超大的可视空间,观看距离从0.6到1.5米,观看角度正负30度,同时,还凭借瞳孔级的视点密度,可以实现非常流畅的时差,带给人们最真实的观看体验。

  视延SYSPACES带你还原真实感受自然,突破传统3D显示的行业标杆,为你带来独一无二的视觉享受。

  达到这样极致的3D体验,我们投入的巨大的研发资源,经过 持续的技术探索和创新,接下来简单介绍一下我们在升维之路上突破的三个核心技术。

  首先,极致的3D体验来自于一块超高信息密度的显示面板,这是一块完全有视延科技自主研发的超高PPI显示面板,它拥有行业最高的1.3亿像素数量,相当于16K分辨率,我们采用超高密度的像素设计,凭借超大的信息显示能力,树立3D显示的业界的标杆,与之相匹配的,我们自主研发了业内首创的超多通道技术芯片,单颗芯片可以提供38GB数据带宽,提供前所未有的超大信息数据通道,使得1.3亿颗像素实时刷新成为可能,超高信息密度显示屏是我们高质量光场呈现的最核心的基础,同时这块显示屏还可以带来700nits的峰值亮度,还有100% SRGB的色域,能够给用户带来专业级显示器的优异画质。

  即使在超高显示信息面板的加持下,要实现空间级的视网膜的3D体验,我们还有很多的技术鸿沟需要跨越,经过多年的探索,视延科技首次提出了采用独家专利技术的液晶透镜光栅的解决方案,解决了困扰行业内已久的光栅制造精度和对位误差带来的串扰和摩尔纹的问题,液晶透镜光栅不仅可以实现精准的控光,还可以实现2D3D的瞬时切换,同时,搭配我们的超高信息密度面板,可以实现瞳孔级的视点密度和单眼4K分辨率的3D视觉盛宴。

  通过前面两个核心技术,我们解决了裸眼3D的静态显示问题,接下来用算法加持的主动显示信息交互系统,则让我们这个显示屏变得更加智能,让用户在移动观看时能够享受到非常流畅的移动视差的画质,我们开发了集成在显示器内的多传感器人机交互平台,可以实时的侦测人眼相对屏幕的位置和距离,适配用户更大的观看空间,同时,我们自主研发的低延时眼球追踪算法,可以实时监测人的相对位置,同时,我们的显示内容可以根据人的观看角度和注视位置实时刷新,为了实现用户对延迟的无感知,我们采用延迟的补偿技术,让实际显示延迟控制在一帧画面刷新时间以内,给用户带来毫无延迟感的画面。

  基于以上三个核心技术,视延SYSPACES可以给用户带来独一无二的3D视觉体验。

  首先,传统3D因为难以解决的串扰和摩尔纹问题,长时间观看容易头晕引发不适,而视延SYSPACES通过独家的解决方案,可以将串扰和摩尔纹降到最低,同时,我们有超大的可视空间和高质量的光场重建,让你在各个角度观看画面都能够鲜活呈现。

  其次,凭借我们1.3亿颗像素提供的强大信息展示能力,我们画面可以达到4K视网膜级分辨率,在3D观看模式下细节更加丰富,毫无颗粒感,分毫必现。

  第三,传统3D显示显示空间多为入屏,景深比较浅,容易造成显示主体和背景的层次不清,而视延SYSPACES景深大,视野广,完美还原自然的光影层次,给你带来最真实的观看体验。出屏好像触手可得,入屏又好似遥不可及,给你带来前所未有的临场感、空间感和立体感。

  第四,视延SYSPACES凭借瞳孔级的视点密度和主动信息显示交互系统,可以实现流畅的运动视差画质,让用户在各个角度观看都感受不到卡顿,画面不脱影,眼睛不累,观看更加舒适,主体呈现 更加鲜活生动。

  最后,SYSPACES还可以实现2D3D显示模式的一键切换,让用户在不同场景下切换挥洒自如,游刃有余。

  好的产品外观也经过了精致的打磨,这款产品获得美国IDA工业设计大奖,整个3D显示器采用一体化全铝合金的机身,极简设计,坚固耐用,更显高端旗舰的质感。显示器背部我们采用了精湛工艺,让高亮和哑光的质感得到完美融合,机身正面我们定制化开发了光学油墨可以完美的遮挡光学传感器,同时不影响光学效果。

  机身表面我们采用高性能3D光学盖版,高透耐磨,同时我们采用光学镀膜工艺,增加了抗指纹和防反光的光学涂层,同时我们人性化的按键设计,让操作更加简单容易上手。

  此外,这款机器还提供了丰富的接口类型,包括两个DP1.4,包括两个SDI12G和两个HDMI2.1的高速接口,兼容各种各样的设备主机。

  还有我们的人体工学支架,兼顾一体化、美观耐用,而且适用各种应用场景。

  除了硬件打磨,我们还开发了相应的应用软件,方便我们的开发者来使用。

  Sviewer模型查看器,支持目前市场上主流的3D模型文件,它支持模型的查看,光照的调整,背景的切换还有材质的处理等等一些常用的功能,同时,我们还开发了SDK插件,可以非常方便地插入Unity等3D渲染平台以及常用的软件,让我们使用者和内容开发者可以通过3D显示器最直观的体验到他们的设计成果。

  视延SYSPACES我们产品定位是TO B细分领域专业显示器,它是高价值的创造力工具,我们可以适用多种应用场景,在医疗领域,像微创手术、方案制定和医疗的沟通和教学,这款显示器极大的提高医生的效率并且降低风险,在3D可视化设计领域,无论工业设计、建筑设计还是创意设计,都是最直观的成果展示工具,在视频通信领域,可以让视频通话者远在天边却近在眼前,还有在科研领域,无论是科学研究还是三维能力的培养,都是最强大的生产力工具。

  说这么多,3D显示还是要眼见为实,接下来让我们共同见证时延SYSPACES登场亮相。

  有请董总为我们共同举行揭幕仪式。

  (揭幕仪式)

  董学:随着我们激动人心的产品发布,论坛接近尾声,确实上午的论坛干货满满,我们通过这个论坛把京东方近10年的行动,还有多少一些成果给大家做了一个展示,包括刚才Fast LCD,包括4KOLED,这是全球独一无二的,唯一的16K,这都表明我们京东方过去10年对元宇宙方向的压铸的决心和毅力,我们希望大家能体会到。

  最后,感谢我们各位嘉宾带来的丰富的演讲,还有我们在座的每一位积极参与,特别要感谢的,我们背后的筹备小组,从2020年开始筹备,刚才好多老师报告三年之前用的,2021年被延迟,2022年被延迟,但是他们持之以恒没有放弃过,这为我们论坛成功做出巨大贡献,我们鼓掌。

  现在我来宣布,我们的论坛完美闭幕,期待明年继续更高一层楼。

  谢谢大家!明年干货会更多。

责任编辑:张迪

图片新闻

举报邮箱:jubao@vip.sina.com

Copyright © 1996-2023 SINA Corporation

All Rights Reserved 新浪公司 版权所有