想簡單閒聊一下關於特斯拉的科技部分.... 本身工作是寫code相關,加上有涉及到AI的相關領域....老實說我覺得特斯拉的輔助駕駛和FSD是真的蠻厲害的。 當大部分傳統車廠都還在依賴雷達等sensor來實現輔助駕駛,特斯拉早早就投入純視覺的發展,是真的很大膽也很令人驚艷。 先簡單說說我認為純視覺的優勢: 1. 極低的成本, - 不需要額外雷達和感應器,只要有足夠數量的鏡頭即可。 - 沒有其他感應裝置,也意味著不需要考慮後續感應裝置的維護或更換成本。 - 站在工程師的角度,沒有感應器等於少了一個要考慮的變數,其實程式判斷寫起來應該會比較容易。 EX. 其他車廠即便是用感應器,也是需要搭配鏡頭的,如果這時候鏡頭和感應器的判斷互相衝突,此時要怎麼讓系統去判斷要相信哪個? 這其實是大大增加了整個程式模型的複雜性。 2. 具有很高的可應用性和規模性 (這部分比較偏向FSD,跟單純輔助駕駛關聯較低) - 特斯拉的純視覺+AI模型,我認為當此技術未來成熟之後,是可以隨時隨地應用在任何地方的,包括未知的地區和星球XD。 講到FSD,身為科技宅的我也一直有在追蹤,先來看看特斯拉近期財報中提到其算力中心使用NVDA的GPU (H100)的數量圖變化: https://imgur.com/8u6fqdB 可以看到在2024年,特斯拉的AI算力是爆發式的增長,這跟算力中心算力的提升曲線幾乎相符,也能看到從FSD V12.3~V12.5.X之間,其表現能力也是跟隨算力的提升有飛躍性的增長表現。 雖然官方沒有公布FSD的數據,但根據國外某個知名的民間FSD統計數據網站,整個FSD V12.X的平均表現是大約320公里才需要干預一次,這跟以前的V11版本比起來是整整進步了一倍。 如果細看到V12.5的話,幾乎是將近600公里才需要駕駛介入一次。更別說,特斯拉的AI模型還在日以繼夜的訓練當中,我覺得未來FSD的成長只會越來越快,可能會超乎我們的想像。 (應該說所有AI模型的訓練速度在未來會是我們難以想像的....) 網址 >> https://teslafsdtracker.com/ https://imgur.com/cnCxE1R 但FSD近期成長這麼快,是否已經離全自動駕駛不遠了? 我自己是覺得還沒那麼快就是,但照其AI的成長速度,應該也不會等太久。 必須說目前的表現跟Waymo比起來還是有些差距.... 但從營運角度來看,一台Waymo的成本好像是30萬美元上下,假如每公里營利1美元,那就是說一台waymo的車必須跑30萬公里以上才能回本。 而特斯拉的FSD成本並沒有像Waymo那麼高(畢竟只有鏡頭...),只要FSD繼續進步,那麼未來無人計程車這個商機勢必會轉而跑到FSD這邊。 另外,還有一點就是Waymo還必須依賴高精細的地圖,這就使的Waymo難以快速規模化進而拓展到整個美國... 但是FSD並沒有這個顧慮,這也是我為什麼覺得FSD在規模化上有很大的優勢XD 雖然車版好像沒啥人在討論車用AI這塊,但我覺得車子幾乎確定是未來AI浪潮下...首當其中的載體之一。 AI和自動駕駛對於未來的汽車絕對會影響非常大,許多傳統車廠如果沒有跟上這波趨勢,我覺得可能會受到很大的影響... 不知道有沒有離題太多XD...回到原文的輔助駕駛本身,家裡有一台歪L和一台M3,我個人是覺得兩台車其基本的跟車和定速功能在高速公路的表現上其實不會相差太多.... 但是必須說特斯拉輔助駕駛的加速和減速是感覺比較接近像是人在操控一樣的感覺。 -- ※ 發信站: 批踢踢實業坊(ptt-club.com.tw), 來自: 36.230.153.220 (臺灣) ※ 文章網址: https://ptt-club.com.tw/car/M.1724604178.A.BAF
green04: Good 08/26 01:04
whitecoat51: 不知道現在有沒有基於光達或毫米波雷達的AI,之後發 08/26 01:25
whitecoat51: 展前景會不會比純視覺來得好 08/26 01:25
moom50302: 業內做ai自駕沒有不佩服特斯拉的,通常只有業外裝內行 08/26 02:03
aggressorX: 特斯拉H100多到蓋工廠來放了... 08/26 02:56
TwixBar: 包養? 08/26 02:56
Crios: 是蠻厲害的 所以台灣可以用FSD了嗎? 08/26 03:01
milichang: 四樓在說啥,業內人士明明就嗤之以鼻 08/26 03:31
ilovedirk41: 純視覺? S跟X的鳳凰雷達是? 08/26 06:07
DYE: Dojo勒? 08/26 06:34
RV: M大說得沒錯,我是覺得這心態.. 08/26 06:51
boggicer: 現在包養網都這麼直接嗎 08/26 06:51
EPIRB406: 自駕剩特斯拉跟華為而已吧,很多都要放棄了,太不切實際 08/26 07:18
EPIRB406: 。 08/26 07:18
longtimens: 一般消費者看的是結果欸 lv2使用體驗差不多的話 特優 08/26 07:54
longtimens: 勢在哪? 08/26 07:54
z7890706: 成本變低也沒有比較便宜XD 08/26 08:14
Chiason: 歐美包養真的很平常嗎? 08/26 08:14
black32044: 使用體驗有差不多? 08/26 08:19
longtimens: 台灣的話沒差很多吧 08/26 08:33
longtimens: 一樣是封閉道路才能用啊 08/26 08:34
jesuskobe: 我記得之前也是有人特斯拉跟其他車兩台,使用體驗跟這篇 08/26 09:29
jesuskobe: 一樣差不了多少,有人還覺得tesla在加速比較快反而不喜 08/26 09:30
Markell: 男友上包養網 該放生嗎 08/26 09:30
mhmichelle: 感謝分享 08/26 10:45
eryaniso: 在台灣小贏而已,畢竟功能根本沒打開 08/26 10:54
YummyLin2120: 重點感是敢敢說出事負責 不然永遠都是不是自動駕駛 08/26 11:14
YummyLin2120: 根本不配叫自動駕駛 08/26 11:14
DYE: 自燃都不肯負責,那自駕怎麼負責? 08/26 11:44
fuoya: 是這個包養平台嗎 08/26 11:44
ewings: 講影像方案感測器資料會不衝突不知道是在講三小,特斯拉自 08/26 12:08
ewings: 己的純視覺方案,長短焦兩個鏡頭的資料一樣要做數據融合, 08/26 12:08
ewings: 視覺資料融合並沒有比光達-視覺融合簡單 08/26 12:08
longtimens: 講那麼多 台灣就沒什麼差啊 08/26 12:38
lll156k1529: 沒雷達是缺點捏 08/26 12:47
Apasiri: 交男友跟包養有什麼差別 08/26 12:47
ewings: 誰和你講對AI來說雷達+視覺會比兩個視覺的資料融合難?你 08/26 12:48
ewings: 自己想的?就算是更老的機械學習,面對有深度資訊的雷達+ 08/26 12:48
ewings: 影像的資料融合,難度也比沒有深度的純視覺長短焦雙鏡頭簡 08/26 12:48
ewings: 單。 08/26 12:48
ewings: 誰和你講非金屬在毫米波雷達下是半透明的?你到底懂不懂汽 08/26 13:40
litidi: 包養網到底在紅什麼? 08/26 13:40
ewings: 車的感測元件啊?不懂就別出來瞎吹 08/26 13:40
ewings: 講雷達和視覺會讓電腦不知道處理哪個?你在講什麼笑話啊? 08/26 13:42
ewings: 你怎麼不講長短焦雙鏡頭出來的視覺訊號會讓電腦不知道要處 08/26 13:42
ewings: 理哪個? 08/26 13:42
ewings: 只要是多感測器,都需要做感測器間的校準與資訊融合,雙鏡 08/26 13:44
Merzario: 有人被包養 08/26 13:44
ewings: 頭一樣得要做,而且還比雷達+鏡頭間的校驗還麻煩,消耗的 08/26 13:44
ewings: 算力更多。 08/26 13:44
ewings: 不懂硬體就別出來瞎吹 08/26 13:45
benlu: FSD在台灣為什麼不能用呢?因為他會把機車直接撞下去 08/26 13:50
ewings: 誰和你講FSD有克服純視覺精度上的誤差了?特斯拉才剛又把4 08/26 14:05
Muzaffer: 求包養...管飽就好XD 08/26 14:05
ewings: D毫米波雷達裝回4代自駕平台而已。 08/26 14:05
ewings: 特斯拉要用上AI,那表示純視覺方案的演算法更麻煩,和你自 08/26 14:34
ewings: 己幻想會更簡單的情況完全相反。 08/26 14:34
miel3330: 你幹嘛要跟一個明顯外行的人講ML 08/26 15:53
ewings: 底層邏輯更複雜的東西,你覺得可以丟給AI所以不會更麻煩? 08/26 18:48
MIJice: 阿姨!我不想努力了(求包養) 08/26 18:48
ewings: 那以後你活該成為被AI取代的碼農吧…..付你薪水還不如拿去 08/26 18:48
ewings: 買nvidia運算卡。 08/26 18:48
ewings: 笑死,底層邏輯就像憲法一樣,沒有建立基本規則,AI也只是 08/26 21:56
ewings: 算出一堆垃圾。然後訓練不用成本?資料不用成本?人工校驗 08/26 21:56
ewings: 資料不用成本?你對AI的認知和那些相信飆股群組裡的那些人 08/26 21:56
SpyTime: 有沒有富二代要包養 08/26 21:56
ewings: 有啥兩樣? 08/26 21:56
ewings: 就拿高速公路緩衝車當例子,3D光達與雷達只要一個簡單的” 08/26 21:57
ewings: 感知前方有個靜止障礙即刻煞車”的簡單邏輯就拿運作,AI就 08/26 21:57
ewings: 必須有大量的訓練資料才做得到,而如果訓練資料缺乏緩衝車 08/26 21:57
ewings: 數據,偵測就有機會失效。這就是為什麼特斯拉吹了半天純視 08/26 21:57
Toth: 身邊有朋友被包養 08/26 21:57
ewings: 覺,到現在還是只敢標Level 2的原因。 08/26 21:57