ISDF2016经典之K2:数据中心和VR Streaming解决方案演示
本帖最后由 lcytms 于 2017-5-12 17:30 编辑ISDF2016经典之K2:数据中心和VR Streaming解决方案演示
参考链接:
https://www.altera.com.cn/events/asia/altera-soc-developers-forum/isdf-content.html
全部经典内容包括:
K系列的主题演讲(K1~K3);
A系列的硬件主题(A1~A12);
B系列的软件主题(B1~B10)。
K2指的是主题演讲keynote-2。
20161108 ISDF 2016,北京
英特尔公司Houston Tang
主题演讲05’11’’
下载视频链接:
视频文件:ISDF2016-China-keynote-2.mp4
下载链接:https://www.altera.com.cn/content/dam/altera-www/global/zh_CN/video/ISDF2016-Beijing/ISDF2016-China-keynote-2.mp4
本帖最后由 lcytms 于 2017-1-4 21:23 编辑
00
(杨旭)在这,有请Houston和Gran。
Houston,你好!Gran,你好!
(Houston)大家好!我这边给大家演示一下基于Intel至强处理器虚拟的一个数据中心,然后在数据中心上进行VR的视频传输。
我们请我们的摄像师上来给我们一个特写,我先介绍一下我们今天的一个硬件的配置情况。
那在大家的右手边,是一个虚拟的数据中心。
它提供视频源。这个视频呢,通过我们的SOC FPGA进行编码,然后进行网络的传输。
大家看到,我们两台仪器之间,唯一连接的就是一根网线。
01
就是说,这个数据通过这个FPGA进行编码,然后通过网络传输,这里就是我们的客户端,客户端的显示器。
好,大家可以想像一下。
把这个数据中心想象成百度,或者腾讯,或者阿里的数据中心。
这边呢,想象成大家坐在家里,坐在沙发上,看着一个电视,会是一个什么结果?
那我们请我们的同事,把VR的头盔戴起来。
这便是一个VR的头盔,在这个场景中,它产生一个视频图像。
这个大家右手边的图像,是一个本地的图像。
大家再来看看,大家左手边的这个图像,相当于是一个远程的图像。
大家可以把它理解为,这边是数据中心的图像,这边是你家里的图像。
02
大家通过这个屏幕,或者直接看一看,这两个显示器,它们之间你能感觉到有多大的延时吗?
大家能看出来吗?
能不能看出延时出来?
OK。
如果没有回答,我相信大家都没有看出来有多大的延时。
OK。
这个就是说,视频通过我们的FPGA进行编码、加速,然后进行网络的传输。
大家几乎看不到延时。
肉眼看不到延时。
这是非常好的一个效果。
另外一个,大家看到我们的同事在demo这个VR,大家看到他的头盔在移动,所以这个屏幕也跟着动。
大家看到他那边移动的幅度,跟我们远端显示器的幅度几乎是同步的。
大家看到,他在那边移动,这个显示器在跟着移动。
03
所以大家也看不出有任何的网络延时。
这就是我们今天要demo的这个视频传输。
然后呢,大家可以想像一下,我们有这个技术,将来可以用在什么地方呢?
将来它是如何改变你的生活的呢?
我们这样想一下,假设这便是一个视频源,或者是数据中心,它在播放这种3D的游戏或者3D的视频,我坐在家里沙发上,我可以带着一个3D眼镜。
我移动也好,或者我在看视频图像也好,我看到的跟我实际在数据中心看到的,大家几乎看不到延时。
就相当于你是坐在数据中心里边,玩着游戏,或者看视频一样,但实际上你是坐在家里沙发上,但是数据是从数据中心传输过来的。
04
我们一方面利用了数据中心强大的数据处理能力,另一方面,你又在家里享受很舒适的环境,看视频,或者玩游戏。
这是一种场景,还有一种场景,大家可以想像一下,比如说,下一届的东京奥运会。
他们计划在这个场馆的周围,设置大概几十个摄像头,就是周围有一圈摄像头,然后把这些所有的视频,都送到数据中心,进行码流的传输。
然后呢,作为一个用户,他可以不去现场,他只要坐在家里。
然后呢,戴着一个VR的头盔,我在转动我的头盔的时候,你的感觉就相当于你在现场,在不同的角度,或者不同的位置去看实际的比赛。
大家想像一下这个是多么的有趣,而且很快就会实现。
05
让我们翘首以待,迎接这个伟大的变化。谢谢!
(杨旭)谢谢Gran!谢谢Houston!
页:
[1]