具身智能工業場景需求明確,擴大應用場景和處理複雜數據仍是發展重點|雲深處李超@MEET2025
編輯部 發自 凹非寺
量子位 | 公眾號 QbitAI
具身智能,無疑是2024最熱科技話題之一。
很多人會好奇,有著超級AI大腦的機器人,何時能夠參與到我們的日常生活當中?什麼時候才能給我們建立一個真實的物理世界模擬器?
現在,國內具身智能創新應用引領者雲深處,在MEET 2025智能未來大會上分享了自己的觀點:
具身智能提高了傳統機器人的泛化能力,處理真實環境中的複雜數據仍是未來訓練重點。
目前具身智能行業處於L2級,工業場景中的需求非常明確。
雲深處科技公司成立於2017年,專注於具身智能的研發與應用,擁有超過15年的腿足機器人研發經驗,其產品已在電力、消防、救援、建築、安防等多個行業中實現商業化應用。
在MEET 2025智能未來大會上,量子位邀請到了雲深處科技公司的聯合創始人兼CTO李超,探討了雲深處科技公司旗下機器人產品的發展歷程、目前具身智能行業的發展重點、未來公司的商業和技術方面的規劃等話題。
MEET 2025智能未來大會是由量子位主辦的行業峰會,20餘位產業代表與會討論。線下參會觀眾1000+,線上直播觀眾320萬+,獲得了主流媒體的廣泛關注與報導。
核心觀點梳理
-
多模態數據及真實性(To-Real問題)仍是製約具身智能進一步發展的關鍵因素之一。
-
類似於自動駕駛的分級標準,具身智能也呈現出從L0到L4的不同級別,目前基本處於L2階段。
-
行業內對具身智能的未來充滿樂觀,預計將在工業及其他非家用場景中率先實現大規模商業化應用。
-
雲深處通過對具體場景做適配、並對模型能力進行約束,已實現強化學習算法的產品化落地。
以下是李超在MEET大會現場圓桌論壇的QA實錄,為了完整體現他的思考,在不改變原意的基礎上,量子位對問答部分進行了編輯整理,希望能給你帶來更多啟發。
提高傳統機器人智能泛化能力
量子位:雲深處很早開始就直奔具身智能終點,做仿生類形態,你們是怎麼思考這個問題?
李超:雲深處科技從今年開始專注具身智能的技術創新與行業引領,客觀來說我們雲深處是具身智能第一批受益者,也真實產生了一些市場價值。
我們最早是做機器狗的,幾年前,這些機器狗很多是基於模型進行控制,它的泛化能力和適應性沒有現在這麼好。
這兩年我們在這方面持續投入,去年整個團隊就已經在做跟訓練相關的具身智能,去年開始我們的四足機器人有了很好的應用,今年開始規模化應用。
我們有面向一些消防場景,還有救援的、特種的,包括電力巡檢等,具身智能給機器人賦予了靈魂,有了這個靈魂加持,加上機器人的應變能力本身也很強,目前已開始實現一年增長兩三倍的規模化應用。
到明年還會有更多應用,面向更開放的環境,陸陸續續會在一些民用的場景有更好的應用。
量子位:具身智能這個概念來自於艾倫·圖靈,是他在半個世紀以前開始定義或者構想的事情,到現在我們才真正定義元年,雲深處當時是看到什麼趨勢,或者產業內有什麼樣技術或者要素變化,讓你們覺得可以開始做具身智能了?
李超:具身這個概念早些年其實我不太熟悉,雲深處團隊,包括浙大團隊,最早是把學習引入到機器人控制中。
我們在2019年時其實就做了這個工作——多專家系統,也登上Science Robotics子刊。
但是這裡面的工作,是不是真的能超過以前的一些算法,能否實現產品化落地,才是更加重要的部分。雲深處花了三年時間才真正把強化學習的東西做落地。
機器人在應用的時候要基於具體的一個場景做適配,對它的能力要進行一定*約束。
我們現在感覺,智能模型的能力有點太強了,如果放在機器人身上,能力會超出我們之前的預期。
核心的一點是,以前早期的機器人是基於規則的控制,但現在基於訓練的方法,能力極大超出了我們認知的邊界,而且還在不斷進化。
隨著機器人能力的增加,以前我們覺得只能在固定場景下應用,但今年在完全開放的環境里效果也可以非常棒。
我們上月發佈的輪足形態機器人山貓,對這個行業來說是有顛覆性的,尤其是對未來二、三十公斤以下的移動平台來說。
它可以用最好的能力解決各種小場景下突破性的問題,是一個極大的提升,它相當於一個有生命的物理系統,這是我們最大的感受。
重點是處理複雜真實場景中的數據
量子位:數據在你們的實踐落地過程中是一個關鍵挑戰嗎?
李超:目前客觀地說還不是,雲深處有一個很重要的使命,讓AI+機器人的技術真正落地,產生價值。目前從我的角度看,除了數據,還有技術的成熟度,商業的成本,包括部署等挑戰。
在機器人能力層面,雲深處做本體和小腦會更多一點,在數據層面上,確實沒有遇到太多的障礙,因為數據沒有大模型用的這麼多。未來要結合更複雜的場景空間和操作,到明年這方面應該是我們的一個挑戰。
量子位:對於如何處理真實數據,像類似Sora的模型,或者Sim-To-Real的解決方法,您有什麼看法?
李超:我們經常困擾在To-Real這個事情裡面,確實是問題很多。
剛才說到動畫的數據,可能體現在一些色彩,真實的場景裡面的數據,還包括質感等更多方面,我們希望有更加多模態的。
比如像機器人在野外行駛的時候,看到一些草地,或者和雪地、水這些東西融合在一塊,對機器人來說如何做出通過與否的決策,這個是現在蠻大的一個挑戰,這些都是To-Real的問題,我們每天都在解決這樣的問題。
工業生產場景中需求明確
量子位:像雲深處這樣實踐者,你們會考慮把具身智能實踐按照一些能力技術的標準去劃分嗎?類比智能駕駛領域裡面的L2—L5的劃分,你們會有類似的標準嗎?
李超:有,而且很明確,去年以前我們很多是L1,準確說是L0,因為有很多行業應用,比如消防和應急救援,還是人在操控。
現在我們用的最多的,工業巡檢場景下,在固定場景下、小範圍的L4,機器人自主去做決策,去做判斷,這是分行業的。
但是像山貓機器人在開放環境下,我們覺得目前是L2多一點點,大部分情況下它可以靠自己判斷去做,還有一半時間需要靠人做決策。
明年希望進化到L3級別,但對機器人來說場景太大了。
量子位:類比ChatGPT的發展軌跡的話,您覺得現在是具身智能的幾點0?
李超:我更樂觀一些,因為剛好處在這個行業裡面,我們也解決了很多惡劣環境下的實踐。
第一個被改變的格局還不確定,有些公司太瞄準家用,家用是不是很快有這些需求還不確定。
但是我相信在工業生產中,很多場景已經發生深刻的改變了,我處在這個圈子裡面已經感受很大了。