
騰訊高管談元宇宙:質變的時間點可能在 2030 年

元宇宙的技術現在發展到了什麼狀態?元宇宙需要什麼樣的設備和內容支撐?為什麼質變會在 2030 年發生?在馬曉軼的分享中,或許能找到答案。
4 月 24 日,騰訊高級副總裁馬曉軼在復旦大學管理學院校友會上,分享了他對元宇宙、VR/AR 等內容的看法。
在元宇宙熱潮下,馬曉軼對元宇宙短期 2-3 年內的變化,看法是保守的。儘管現在很多專項技術有了突破,但元宇宙時代所需要的通用設備(類似當年帶來計算機革命的家用 PC,以及推動移動互聯網發展的智能手機)現在還沒有出現。無論從技術還是商業來看,離它的發明與普及都還有距離。
但對於更長線的 10 年發展前景,他有很強的信心。一方面,元宇宙概念在近兩年得到更多的技術支持,正在從多方面解決自身的瓶頸問題;另一方面,社會對其認知也正在突破,從僅侷限於遊戲、軟件中的概念,朝着跨越多個場景的方向發展。而元宇宙質變的時間點,他認為是 2030 年。
元宇宙的技術現在發展到了什麼狀態?元宇宙需要什麼樣的設備和內容支撐?為什麼質變會在 2030 年發生?在馬曉軼的分享中,或許能找到答案。
沉浸感:2030 年後,元宇宙或開始普及
首先,沉浸感,我覺得主要是兩個方向:1.人機接口&交互方式;2.VR 等設備的體驗問題。
現在我們提到 Metaverse,大家會不由自主地將它和 VR 聯繫在一起。當然,這是基於兩個原因,一方面是因為前段時間 Facebook 下了非常大的賭注在 VR 的方向;另一個方向,我們如果要達成 Metaverse 的概念,那麼 VR 這樣的全新設備是免不了的。
為什麼呢?普通人藉助鍵盤、鼠標、觸控等設備輸入給電腦的信息,從電腦的技術角度來看,它們帶寬其實很窄,能輸入的信息很有限。而電腦只能根據這些東西,做出反饋,更多的信息都沒有辦法直接地輸入進去。
但是,隨着輸入的帶寬增加,其實我們可以加入更多維度。
比如,可以給 VR 設備增加更多的攝像頭、傳感器,將環境信息也輸入到電腦當中。可以追蹤人體狀態,現在最新的技術可以實現 6 個維度——前後左右上下——的 3D 追蹤,包括頭的位置、眼睛朝向,方便和周圍的環境互動起來。
其中最值得關注的,便是手的操作。現在最新的 Oculus Quest 2,還需要用手柄來輸入信息,但是業內有一個共識,更自然的交互,是用手來交互。
這個進步,在手機上就出現過:早期的手機都是用觸控筆來寫的,但蘋果就站出來説,這是違反人直覺的。人的直覺,應當是用手指去觸摸屏幕——這個道理放在 VR 設備上也是一樣。所以現在我們很多進展,就是去捕捉手指的動作。
另外,我們看到一些最新的技術專注做面部識別,捕捉表情。大家都知道人和人交流的時候,對方的反應是很重要的反饋。
比如説我們現在的線上會議,我的體驗其實並不好,因為我看不到大家的表情,我不知道現在我的演講是講快了,還是講慢了。可如果在線下,我就能馬上看到觀眾的反應。所以未來我們也需要藉助面部識別,去追蹤人實時的表情,然後投射到虛擬的場景當中去......
這些新的輸入方式,集成在一起,讓信息帶寬更大,能極大地改變電腦的信息輸入。
也有一些讓人非常興奮的技術發展。
比如最近我們看 VR 頭顯上的顯示單元。大家如果試過 Oculus Quest 2,就知道它上面使用了 Fast-LCD 的技術。不過這個技術有一個問題,那就是紗窗效應。當設備離眼睛太近的時候,你能看到 pixel 像素點就在你的眼前,好像隔着一個紗窗在看。這個其實就和當年低分辨率的手機顯示屏一樣。
之後的故事大家都知道,iPhone 能成功的很大一個原因,就是他們在 iPhone4 提出了視網膜屏幕的概念,極大地改善了大家使用手機屏幕的體驗。
VR 發展到了今天,針對這些問題,也有一些新的技術在誕生。比如説已經在生產線上的,4K 分辨率的硅基 OLED 顯示屏,已經能夠為 VR 頭顯提供足夠高的分辨率。
如何在 VR 頭顯上達成視網膜屏幕的效果?現在有一個標準,即,人的每一度視角上應該有多少個像素點。大致來説,有 30 個的時候,你已經開始感受不到像素的邊界,如果到了 60 個/度,你就可以完全看不出像素點。所以,4K 硅基 OLED 顯示屏已經足夠讓大家有一個非常好的體驗。
亮度,也是一個 VR 頭顯的改變點。
從現在的硅基 OLED 顯示屏,到未來的 MicroOLED 顯示,都可以提供更高的亮度。之前,LCD 大致大概只有 400-500nit 的亮度,現在我們已經能看到 2000nit,而且從未來發展的路線圖來説,我們已經看到 10000nit 的在研設備。
這就解決了一個非常大的瓶頸問題,即,提升顯示單元的技術,增加用户的沉浸感。市場上也有了一些成型的產品。
但未來,還有一個很重要的發展方向,那就是摺疊光路的技術。
以前的 VR 設備通常又厚又重又大,戴在頭上很不舒服。未來我們能看到摺疊光路的設備,可以將 VR 頭顯單元做得非常薄,更接近於普通戴眼鏡的感覺。
還有一個突破,就是 VR/AR 的爭論。VR 説,所有的內容都來自顯示單元,但 AR 説,得將內容和現實環境做重疊結合。
現在來看,行業大家做的都是摺疊光路的方案——依舊用顯示屏來呈現所有的內容,但是會在外界增加更多的感應器,來捕捉用户的周圍情況,最後疊加在你的顯示屏上——行業裏還有一個傳聞,大概在明年年初的時候,蘋果就會出這樣的一個設備,運用摺疊光路的方案,實現 VR/AR 的效果。
綜上所述,人機接口方面的技術路線圖發展得很清晰。除了電池受到不少限制以外,其他方面,幾乎都有了解決方案,且都在進展當中。
這也是我們對於元宇宙、VR/AR 的發展抱有信心的原因。
另一個點,要想讓技術體驗足夠好,單是設備內部有硬件支持還不夠,還得有軟件發展。
需要指出的是,這裏的軟件,指的是技術,不是內容。我們將其歸結為 3 個維度:
1.可信的環境:Metaverse 的場景越來越真實,讓用户能相信這是一個真實的世界。
2.可信的人物:人是社交屬性很重的生物,我需要與羣體互動、交流、協作。這個當中,最需要的便是一個可信的人物。我相信大家都對這一點多少有所體會。
3.可信的交互:還是聊線上會議,這種形式更像一個演講,而不是討論,線下會有人插入進來討論,有碰撞,但現在的線上沒有這些東西。
如果要做一個更真實的交互,要涉及到很多讓人足夠相信的細節。比如我讓你拿一瓶水,我和你握手,我能感受到其中的温度、重量,而這些,都是傳統的電腦、Pad 完全做不到的交互......不過現在已經有技術在這方面有了不少進展。
總結一下就是,隨着技術的發展,我們需要提供很多的工具給做 Metaverse、VR/AR 的公司,同時,幫助大家可以做出更可信的世界和人物關係。
內容量:誰來提供足夠多的內容?
這是一個挺大的話題。因為我們仍然不知道 Metaverse 需要包含哪些內容。不過現在來看,我們會覺得分幾個維度:專業內容和通用內容。
這部分我會比較悲觀。因為儘管技術在路線圖上發展着,但需要更多的時間去準備。專用到通用,還需要更多的時間。
當一個技術還沒有到舉足輕重的地步時,它往往只是一個相對專業、專用的應用,比如説遊戲、影視等方面;而通用類,比如説大家正在用的手機,現在已經有成千上萬種辦法去使用它。
大致拍腦袋説一下,我和內部團隊交流的時候,一般將 2030 年作為一根基準線,在那之前,Metaverse 還會是專用的階段,到了之後,才可能會有些機會走向更通用的狀態,開始挑戰現有的電腦、手機的使用場景。現在更多是一個新的、補充的場景定位。
這裏可能需要更細緻地説一下專用和通用的差別。
差不多一個半月之前,我和 Epic Games CEO Tim Sweeney 開會,討論到這個問題的時候,我的總結是:我們現在的遊戲,就是一個「遊戲」,你看視頻,看的也只是一個「視頻」,但是 Metaverse 不一樣,你應當是在 Metaverse 當中「生活」。期間有本質的區別。
比如當你去一個線上的電影院,那是一個專門的世界,割離出現實。但是 Meta 是將大家的生活融入、整合到這個虛擬世界當中。所以這就需要有足夠多的內容,讓你願意生活在其中。
這些足夠多的內容可以分為幾個路線:
1.PGC 的專業製作,例如騰訊這樣的公司製作電影、遊戲、電視劇,這是一個專業的製作。PGC 仍然是 Metaverse 很重要的部分。
2.UGC。也就是用户產生的內容。
3.虛實結合。我們剛剛説了很多技術,便是要將現實世界整合、融入到虛擬的世界當中。
這三個部分,都是非常關鍵的內容組成部分。
那麼如何實現呢?
首先,大規模的 PGC 內容,其實最近也有一些突破。關注新遊戲的同學就知道,前段時間,Epic Games 有一個非常震撼的 demo,他們在《Matrix》上映的同時,做了一個虛擬的城市,這個城市的規模大概有 10-20 平方公里,當中有 3 萬個市民,有大量的交通、建築。
關鍵是,當中的車輛有自己的動作:到了紅綠燈會停下來,看到人會停下來,而且這 3 萬個市民,每一個人的穿着、行為、長相都不一樣——若放在以往,要完成這麼大規模的虛擬世界創造,幾乎是一個不可能的任務。
但在今天,隨着技術的發展,這些不可能的任務都在逐步實現,因為,一方面技術能力在增長,另一方面,這些東西有了更多的好方法去解決。
比如,我們和 Epic Games 有兩個項目正在合作。一個項目,是可以通過 AI 來導入現實世界。之前我們去新西蘭的一個山谷,那是一個 10 平方公里的山谷,我們在那裏拍了 7000-8000 張照片,然後把照片導入引擎,這個引擎就會把山谷大致地還原出 90%,然後再經過我們手動的一些微調,就可以實現在短時間內生成一個非常大的世界,而且這個世界看起來還非常的真實。
另一個項目,我們做的是一個虛擬人的項目——國內叫做 Siren。後來 Epic Games 也發佈了 Meta Human 的項目,一個高度仿真的人。這其實都回到剛才我們提到的概念:一個可信的人是虛擬世界當中重要的構成。
同樣放到以前,你要做一個虛擬人物需要花費相當多的時間。
大家也許聽説過這個故事:好萊塢很多電影要做一個虛擬人,線上渲染 10s 的片子需要幾個月的時間,但以現在的技術,好萊塢要 4 個月做出來的內容,我們能在 0.01 秒就渲染、達成前者 95% 的質量。
這些,都使得大規模的製作有了更好的辦法。包括動作捕捉等內容,在 AI 的加持下,可以讓創建一個內容變得更加容易。
其次是 UGC 部分,我和外部看法多少也不太一樣。
比如,外部談到 UGC,那最關鍵的就是去中心化,但這個點上,我和 Roblox 的 CEO David 有很多的交流——我們很早就參與了 Roblox 的建設,2015 年左右就開始參與,做了不少投資——我們説到 UGC 內容成功的關鍵時,都提到社區的原則、透明性,尤其其中維持秩序、狀態的部分,是需要強中心化的執行。
但這倒不是説我與外部意見相左,我認為,去中心化應該是指能力的去中心化:把工具、能力、資源給到用户,讓大家無需一箇中心化的平台,就能創建屬於自己的內容。而能夠支撐這些內容的,便是剛才所説的,一個持續、有原則、長線穩定的平台。我認為,這是一個做出 UGC 最重要的點。
而第三點,虛實的結合,很大程度上回到剛才我們所説的 Metaverse、VR/AR 新技術。其實我們所希望達到的目標,和互聯網、人類社會以往的努力是一致的。人類一直想打破物理的限制,比如飛機、汽車都是為了消除物理的限制,縮短物理的損耗,提高大規模協同的效率。
所以長遠來看,Metaverse 更多是考量如何引入更多外部、現實世界的服務和內容,打破物理的界限。
更現實的問題
最後,我想聊一聊 Metaverse、VR/AR 存在的問題。
雖然我剛才所講到的內容好像都很樂觀,但是我個人內心深處,還是略帶一些悲觀。
平時,我和大家聊的時候都會這麼説:看短期 1-3 年,我比大部分人更加悲觀,看長線的 10 年之後,我會比大部分人更樂觀,會認為這些新技術的場景會為整個人類社會帶去很大的變化。
就我的觀點而言,現在的這些技術會在 2025-2027 年之間大規模面世,但是要鋪開來做,還是得等到 2030 年。這是我心目中的一個時間表。
舉個簡單的例子,價格就是一個重要的參考。比如剛才所説的 4K 硅基 OLED 顯示屏,它的體驗非常好,但價格太貴,光是一個顯示單元的價格,就和整個 Oculus Quest 2 的整機價格是一樣的。所以,價格下來還需要很長的時間。
其次,商業模式本身也還存在一些問題。如剛才我所説,現在還為時太早。
如果要將我們當下的階段去對應到過去的歷史,那麼有這樣兩個時間點:
1.通用設備的普及。
很多年輕人可能不知道,最先家用的專用設備,其實是遊戲機——雅達利 2600,1977 年發佈,它可以對標到現在 Oculus Quest 2 的情況。
而大家熟知的 IBM PC,是在 1981 年進入的市場,家用 PC 真正普及,是在 Windows 面世之後,85 年是第一個版本,大規模推廣的 3.0 版本是 92 年才有的,而更廣為人知 Windows95 已經是 95 年的事情了。
可以看到,這個過程起碼有 6-10 年的發展。
2.商業模式的成立。
其實 90 年就有互聯網出現,但是大家知道的互聯網公司,包括騰訊、Google 等,都是在 98 年才成立。而且,這些公司真正找到支持他們的商業模式,大概都是在 2004 年左右。這過程同樣花了很多年。
所以,短線來看,整個 Metaverse 的發展,還需要好幾年的培育,但是培育的方向是清晰的,潛力也是非常清晰的。
上一個 20 年,整個互聯網對人類社會、經濟、技術的貢獻,大家有目共睹,所以我相信未來 20-30 年裏,以 Metaverse 為核心的、集成的互聯網體驗,會給整個社會帶去更大的衝擊。
而這其中,還會有很多的點,值得大家探討、協作、推動。
本文來源:騰訊文化,原文標題:《騰訊馬曉軼:元宇宙離我們還有多遠?》
