首頁 > 股票 > 正文

        環(huán)球熱推薦:別吹了,自動(dòng)駕駛大模型 PPT 們

        2023-06-02 21:18:09來源:ZAKER財(cái)經(jīng)  

        本文來自微信公眾號(hào):宇多田(ID:hellomusk),作者:宇多田,題圖來自:《末路狂花》

        人工智能產(chǎn)業(yè)(包括自動(dòng)駕駛)有一個(gè)不可忽視的人性缺陷:


        (相關(guān)資料圖)

        除了天然受制于技術(shù)語言,也有不少人故意把東西說得模棱兩可、艱澀難懂、天下第一……以達(dá)到讓人不明覺厲、讓資本掏錢的目的。

        有些自動(dòng)駕駛公司就善于此道。

        或者說,如今市面上,把汽車工業(yè)與 " 超大模型 ""GPT" 以及 "AIGC" 強(qiáng)綁定的說辭,基本可以歸于 " 非蠢即壞 " 的商業(yè)炒作行徑。

        特別是,在 " 大模型 " 到底有多大都沒法定義的情況下,有人拿出幾億參數(shù)值說大,有人搬出幾十億也說大,而 GPT2 的 " 大 " 就有 150 億,GPT3 則是 1750 億。

        當(dāng)然,大不大無所謂,很多人最關(guān)心的問題是,開始有公司向汽車產(chǎn)業(yè)推出所謂的自動(dòng)駕駛 GPT,到底有什么用?

        答案是,或許真的沒太多用處。

        首先,就像寫 Paper 占坑一樣,它的確有一小部分研究?jī)r(jià)值,屬于學(xué)術(shù)界的任務(wù)

        其次,忽悠資本,因?yàn)椴簧儋Y本會(huì)對(duì)汽車產(chǎn)業(yè)與大模型的雙倍規(guī)模與估值買賬。

        但事實(shí)上,包括自動(dòng)駕駛產(chǎn)業(yè)與深度學(xué)習(xí)圈,許多開發(fā)者們對(duì) " 自動(dòng)駕駛 GPT" 的說法很不認(rèn)同,甚至是極為惱火的。

        我們請(qǐng)教了多位曾在大廠、中美科技獨(dú)角獸做自動(dòng)駕駛研發(fā)的資深工程師,以及包括 OEM 在內(nèi)的汽車產(chǎn)業(yè)人士看法,再結(jié)合部分博客文章,總結(jié)了一些觀點(diǎn),或許會(huì)對(duì)汽車工業(yè)、資本以及更廣闊的大眾群體有一些啟發(fā)。

        把 GPT 吹上車

        以某家公司給出的 " 自動(dòng)駕駛 GPT 產(chǎn)品 " 為例,其神經(jīng)網(wǎng)絡(luò)概念圖讓內(nèi)行都一頭霧水,不知所云。

        此外,1200 億的參數(shù)量的確夠大,相當(dāng)于對(duì)標(biāo)了 GPT3。這意味著支撐這龐大數(shù)據(jù)量訓(xùn)練的硬件資源支持,同樣不菲。

        但是,他們雖背靠主機(jī)廠,卻并沒有自建昂貴的數(shù)據(jù)中心,而是跟其他企業(yè)一樣租用云上資源。很明顯,這是將某大廠云服務(wù)整合包裝為自己的數(shù)據(jù)基礎(chǔ)設(shè)施服務(wù)體系。

        其次,最重要的,大模型到底怎么落地?

        把跟 ChatGPT 一樣的 " 黑匣子 " 塞進(jìn)汽車?yán)铮鰪?" 感知、規(guī)劃到?jīng)Q策 "(這是自動(dòng)駕駛技術(shù)三個(gè)組成部分)的端到端輸出?

        從這一方向,各方非常嚴(yán)謹(jǐn)?shù)乇硎荆壳半x落地非常遙遠(yuǎn)。

        ChatGPT 有著自己天然的生存環(huán)境,那就是昂貴的數(shù)據(jù)中心里。而所有關(guān)于 AIGC 的應(yīng)用都要跟數(shù)據(jù)中心聯(lián)網(wǎng),這沒有任何問題——在光纜的連接體系里,做到極快反應(yīng)。

        但作為大型移動(dòng)設(shè)備,車唯一靠的就是無線,但目前連 5G 也非常不穩(wěn)定。所以,包括特斯拉在內(nèi),大家都只能選擇走一條路——

        將高性能且輕量化的算法模型,塞進(jìn)一枚性價(jià)比足夠高的芯片里。

        本質(zhì)上,英偉達(dá)從 Tegra 2、Xavier,過渡到 Orin,再到 2000Tops 的 Thor,算力的確是沿著自動(dòng)駕駛 AI 算法模型在車內(nèi)的瘋狂擴(kuò)充與變化而一路往上爬的。

        而估算一下,GPT3 需要的算力至少是 Thor 的 10 的 N 次方倍。

        當(dāng)然,就像 GPT3.5 開源之后,有開發(fā)者已采用量化技術(shù)用蘋果 M2 芯片運(yùn)行起 ChatGPT,所以,不排除未來有人會(huì)把它塞進(jìn)英偉達(dá)的芯片里。

        但是,除去車輛感知、規(guī)劃與決策過程本身的復(fù)雜性,汽車工業(yè)瘋狂追求的性價(jià)比、以及延遲兩秒就會(huì)出人命的嚴(yán)苛交通環(huán)境,對(duì)一切 " 不可解釋性 " 有著天然的回避姿態(tài)。因此,業(yè)內(nèi)認(rèn)為,可行的時(shí)間點(diǎn)極為遙遠(yuǎn)。(當(dāng)然,這家公司說自己的模型對(duì)于駕駛策略是可解釋的,請(qǐng)拿出更詳細(xì)的證據(jù)。)

        目前來看,自動(dòng)駕駛前裝市場(chǎng)普遍情況是:" 唯有‘感知’模塊用上了模型 "。

        業(yè)內(nèi)清楚,感知最好做,且各家已成功落地——從 CNN(卷積神經(jīng)網(wǎng)絡(luò))開始,它就是一套相對(duì)成熟的流水線。而芯片里的 GPU 部分也基本被 " 感知 " 占用。

        當(dāng)然," 決策 " 與 " 規(guī)劃 " 兩個(gè)部分,并非沒有人做 AI 化嘗試,只是汽車工業(yè)大多在當(dāng)下,依然采用最為穩(wěn)健的方法——

        一系列來自機(jī)器人等領(lǐng)域的經(jīng)典規(guī)則理論。譬如以 " 蒙特卡羅搜索樹 " 為代表的啟發(fā)式搜索算法。

        以 " 規(guī)劃 " 為例,其上車最常見的方式是把 " 縱向規(guī)劃 " 和 " 橫向規(guī)劃 " 分開,做 " 時(shí)空分離 "。而在這一點(diǎn)的創(chuàng)新上,就分出了幾個(gè) " 流派 " ——

        以 B 大廠與蘇 Q 廠為代表,做時(shí)空聯(lián)合規(guī)劃。相當(dāng)于把縱向控制與橫向控制的問題結(jié)合在一起,更容易搜索出全局最優(yōu)值。

        這個(gè)流派的優(yōu)點(diǎn)是,在面對(duì)極為困難或復(fù)雜場(chǎng)景,局部最優(yōu)算法很難搜索出一個(gè)更智能路徑,但全局可能性更大。但缺點(diǎn)是占用更多算力。

        以蘇 M 廠等很多從深度學(xué)習(xí)領(lǐng)域 " 出道 " 的公司為代表,在經(jīng)典決策規(guī)劃里融入 AI 算法,把其中一部分模塊用 AI 算法替代掉,而非上來就做大一統(tǒng)。

        的確,五六年前 " 計(jì)算機(jī)視覺 " 的大火,早就證明了深度學(xué)習(xí)具備巨大的應(yīng)用潛力。但它的缺點(diǎn)也是顯而易見的—— " 不可解釋性 ",以及通過大量資源投入來持續(xù)燃燒數(shù)據(jù)。

        因此,要想上車,大部分企業(yè)在努力采用折中的方式——經(jīng)典理論輔以 AI 算法,既保留經(jīng)典方法的穩(wěn)定性,又能提升性能表現(xiàn)。

        " 譬如,規(guī)劃里的‘路徑生成’,就可能用 AI 做替代;而路徑的選擇、判定以及決策,以及后面的縱向規(guī)劃,仍基于規(guī)則去做,形成一種復(fù)合方法。"

        因此,大模型當(dāng)然是一個(gè)終極理想狀態(tài),但上車的最好方法卻是 " 分步驟推進(jìn) ",與成本之間做更多權(quán)衡。

        當(dāng)然,如今也有高端玩家們已經(jīng)在研究 " 單模型多任務(wù) " 的所謂 " 大一統(tǒng) " 形式,不過一切沒有定論。

        大小可能不重要

        我們從來都沒想到,就像當(dāng)年 " 自動(dòng)駕駛分級(jí) " 概念的模糊不清,讓國(guó)內(nèi)不少公司鉆過空子一樣;大模型這個(gè) " 大 " 竟開始也被鉆空子——

        你有 10 億,我有 100 億,他有 1000 億參數(shù)。

        然而,在國(guó)外,對(duì)大模型的 " 大小 " 雖然有討論,卻從來不是重點(diǎn)。況且,國(guó)外工業(yè)界已經(jīng)有了" 去大用小 "的勢(shì)頭。因?yàn)?" 大模型 " 絕不是越大越好,越大就意味著越不透明,越具有排它性。

        包括蘇黎世聯(lián)邦理工大學(xué)的科學(xué)家在內(nèi),一群年輕學(xué)者已發(fā)起一個(gè)叫做 "BabyLM" 的迷你模型挑戰(zhàn)賽,用規(guī)模為大型語言模型千分之一(一億參數(shù)左右)做更適用工業(yè)界的模型。

        此外,2022 年,諸多國(guó)內(nèi)自動(dòng)駕駛公司蹭的所謂 "Transformer" 大模型,更多指代的,是包括 GPT 在內(nèi)諸多大模型背后的深度學(xué)習(xí)基礎(chǔ)架構(gòu),而非僅指代大模型本身。

        它最早出現(xiàn)在 2017 年谷歌的論文里。但這個(gè)被常用在自然語言處理(NLP)的 Transformer 模型,之所以突然在自動(dòng)駕駛視覺界火了,是因?yàn)樘厮估瓕⑦@一深度學(xué)習(xí)模型的 " 原理 ",極具創(chuàng)造性地用在了 " 圖像空間轉(zhuǎn)化為矢量空間 " 的感知預(yù)測(cè)中。

        簡(jiǎn)單來說,特斯拉工程師思考的是,既然這是一個(gè)優(yōu)秀的語言翻譯模型,那么為何不能將 " 攝像頭獲取的圖像空間‘翻譯’為 3D 矢量空間 "?

        所以,Transformer 發(fā)源于 NLP 但轉(zhuǎn)入了 CV(計(jì)算機(jī)視覺);而 2023 年最火的 BEV 大模型,則是基于 Transformer 在自動(dòng)駕駛領(lǐng)域的衍生物。

        如果感興趣,可以直接看 Medium 上關(guān)于特斯拉 FSD 的技術(shù)博客。工程師全程從沒提過所謂的 BEV 模型到底有多大(雖然 BEV 被印證的確是燒數(shù)據(jù)的),而是設(shè)法解決目前車載攝像頭數(shù)據(jù)融合產(chǎn)生的問題——

        純攝像頭系統(tǒng)對(duì)閉塞區(qū)域與大型物體的預(yù)測(cè)結(jié)果比較糟糕,那么便從神經(jīng)網(wǎng)絡(luò)源頭改變算法模型的設(shè)計(jì)理念——從圖像過渡至 BEV。

        效果也確實(shí)有了質(zhì)的提升。

        事實(shí)上,特斯拉更多值得稱道的,是對(duì)各種各樣已存的如 RNN、LSTM、RegNet(上圖)等普通模型進(jìn)行創(chuàng)新,且把它們的潛力發(fā)揮到極致;

        同時(shí),強(qiáng)大的工程能力,又讓特斯拉把這些模型都塞進(jìn)了車?yán)铩?/p>

        " 特斯拉是在從大模型原理入手,去試圖做一些有益于自動(dòng)駕駛整個(gè)模型的設(shè)計(jì),同時(shí)又考慮到汽車必要的輕量化和小型化,再結(jié)合自己的 AI 芯片(TRIP)工藝往車上搬。

        我認(rèn)為這是一件更趨向于實(shí)干的事情,而不是像國(guó)內(nèi)一些公司吹牛蹭熱點(diǎn)。"

        從 1 到 1.X?

        不能上車,那么大模型做離線支持的" 數(shù)據(jù)閉環(huán) "工作總可以吧?

        " 數(shù)據(jù)閉環(huán) " 這個(gè)概念,可以參考被說爛了的特斯拉 Autopilot 數(shù)據(jù)引擎框架——

        確認(rèn)模型誤差、數(shù)據(jù)標(biāo)注和清洗、模型訓(xùn)練,再到重新部署。

        與此同時(shí),全球各地的特斯拉車輛源源不斷的回傳數(shù)據(jù)進(jìn)入這套流程,使之迅速流轉(zhuǎn)起來,形成一套閉環(huán)系統(tǒng)。

        但有趣的是,沒有 " 大模型 ",這些工作也可以做,不是非大模型介入不可。

        譬如,數(shù)據(jù)閉環(huán)里的 " 預(yù)標(biāo)注 ",國(guó)內(nèi)無論是早期的 B 大廠,還是 H 大廠的某生物工具鏈,做的這套東西已經(jīng)非常成熟,那么大模型的 " 增益 " 就有待評(píng)估,沒有 PPT 們渲染的那么厲害。

        實(shí)際上,數(shù)據(jù)閉環(huán)的概念既簡(jiǎn)單又復(fù)雜。

        簡(jiǎn)單在于,它可以被直接看做是" 錘煉算法的大型基礎(chǔ)設(shè)施 ",從它里面出來的模型上車后足夠智能,足夠見多識(shí)廣。

        而復(fù)雜之處在于,它的每個(gè)環(huán)節(jié),幾乎可以作為一個(gè)小型創(chuàng)業(yè)項(xiàng)目——

        如何做到樣本的自動(dòng)化挖掘,如何清洗掉冗余數(shù)據(jù)留下最有營(yíng)養(yǎng)的部分,如何做好數(shù)據(jù)的冷存儲(chǔ)與熱存儲(chǔ)?如何分門別類組織好數(shù)據(jù)?如何做到更有效的預(yù)標(biāo)注……

        所以,這套閉環(huán)的工程量極為龐大,每個(gè)環(huán)節(jié)都需要專門的人才維護(hù)。

        而對(duì)于自動(dòng)駕駛創(chuàng)業(yè)公司來說,由于極度燒錢,一般會(huì)選擇" 把 A 部分做好,把 B 部分外包出去 "的輕量化模式,有強(qiáng)項(xiàng)也有短板。

        目前,雖然各家東西細(xì)節(jié)無從比較,但 L4 獨(dú)角獸 P 廠的數(shù)據(jù)閉環(huán)工具鏈 "CQ",竟然得到了業(yè)內(nèi)不錯(cuò)的評(píng)價(jià)。

        對(duì)于這只早期 L4 巨獸,不談商業(yè)模式,被認(rèn)為 " 在構(gòu)建基礎(chǔ)設(shè)施上的積累比較厚實(shí) ",是一家在技術(shù)層面有真東西的企業(yè)。

        此外,維持這套東西的運(yùn)轉(zhuǎn),必然需要投喂更多的新鮮血液——數(shù)據(jù)與人才。因此,不是誰都能玩得起。

        而特斯拉與比亞迪,是被認(rèn)為最有可能把這個(gè)東西做好的商業(yè)組織。

        只不過,基于人工智能的特性,數(shù)據(jù)閉環(huán)短期內(nèi)是看不到成效的。它更像是春播秋收,把該澆的水、該施的肥、該播的種都做到位,不會(huì)立竿見影且巨燒資源,但效果出現(xiàn)后,便是馬太效應(yīng)形成的開始。

        因此,要比大模型在數(shù)據(jù)閉環(huán)上的應(yīng)用,不如比誰更有錢。

        寫在最后

        當(dāng)然,以上內(nèi)容無意在狙擊誰,也無意表揚(yáng)誰(否則不會(huì)用字母指代),而是希望產(chǎn)業(yè)能回到一個(gè)正常的對(duì)比參照系內(nèi),以及重點(diǎn)放在實(shí)際效果上。

        以及,建議企業(yè)把辦公室內(nèi)的 " 牌匾 " 換成特斯拉的成功三要素:

        堅(jiān)持第一原則思考方式,工程能力,以及執(zhí)行力。

        本文來自微信公眾號(hào):宇多田(ID:hellomusk),作者:宇多田

        關(guān)鍵詞:

        責(zé)任編輯:hnmd003

        相關(guān)閱讀

        相關(guān)閱讀

        精彩推送

        推薦閱讀

        亚洲av日韩aⅴ无码色老头| 亚洲手机中文字幕| 亚洲三级高清免费| 久久久久亚洲AV片无码下载蜜桃| 亚洲精品国产字幕久久不卡| 亚洲伊人色欲综合网| 亚洲中文字幕无码一久久区| 最新精品亚洲成a人在线观看| 在线亚洲精品福利网址导航| 国产偷窥女洗浴在线观看亚洲| 亚洲?V无码成人精品区日韩| 一区国严二区亚洲三区| 亚洲精品老司机在线观看| 亚洲日韩人妻第一页| 久久精品国产亚洲5555| 国产亚洲精品自在线观看| 亚洲午夜无码久久久久| 亚洲国产a∨无码中文777| 亚洲ⅴ国产v天堂a无码二区| 老司机亚洲精品影院| 亚洲精品中文字幕无码AV| 亚洲国产av一区二区三区丶| 亚洲国产最大av| 亚洲国产精品日韩av不卡在线 | 亚洲国产成人片在线观看| 亚洲AV无码久久精品狠狠爱浪潮| 亚洲91av视频| 亚洲成人黄色在线| 国产精品亚洲综合久久| 亚洲国产成人久久一区二区三区 | 亚洲成a人片77777kkkk| 亚洲视频中文字幕| 亚洲人成网站在线观看播放动漫| 亚洲永久在线观看| 色偷偷尼玛图亚洲综合| 亚洲国产一区二区三区| 亚洲精品一品区二品区三品区| 亚洲成人动漫在线| 亚洲一区二区三区久久久久| 亚洲国产精品无码久久98 | va亚洲va日韩不卡在线观看|