→ leefengynh: 黑人問號 03/19 13:46
→ leefengynh: 我家攝影機全黑暗房間中看得一清二楚 03/19 13:46
→ leefengynh: 人眼完全看不到 03/19 13:46
→ leefengynh: 你說人眼比較強xddd? 03/19 13:47
→ leefengynh: 然後你這文組硬體代工腦 03/19 13:47
推 OBTea: 視覺+光學整合是在自然界中很少見的,整合進AI 就是加成本 03/19 13:05
→ OBTea: 沒錯 03/19 13:05
→ OBTea: 修正:視覺+光達 03/19 13:06
→ d4015394: 攝像頭比人眼弱我還是第一次聽到 03/19 15:18
→ d4015394: 人眼比鏡頭強,我直接肉眼看就好,我幹嘛先用手機拍下 03/19 15:49
→ d4015394: 來,再放大來看 03/19 15:50
→ d4015394: 不是讀醫學的在那邊胡說八道 03/19 15:50
這串討論蠻有趣的,雖然兩位版友比較嗆,但我更想討論的是貼近人類視覺的ADAS
其實我本身也不是醫學和光學專業,不過歡迎指證
以ADAS視覺來說,攝影鏡頭是無法和人眼相比較的
我回應貼文有提到一件事情
*****************
視網膜Fovea幾乎等於高解析度+gimballed autofocusing stereoscopic的傳感器
目前硬體無法達到這個等級
*****************
其中人眼怎麼判斷距離和建立3D? 大家每天在用卻可能沒很了解
重要的就是焦距+兩眼視差+肌肉旋轉角度透過大腦處理繪製而成
人眼在中心區域解析度非常高,隨著中心往外擴散解析度越來越低
這也可以讓人眼在大腦中計算出整個3D+距離的概念
但攝影機"目前"就算能做到高解析度,但沒有萬向節+自動對焦機制
很難繪製出距離和3D模型
所以有一派說法,為了補足攝影機的先天劣勢且更能接近人類視覺模型
radar的測距、3D繪製和攝影機本身的mapping才是最接近人類視覺判斷的資訊
事實上Elon Musk本身完全不反對兩種不同傳感器輸入
他甚至早在2022年就說過"Only high resolution matters"
假如認為Tesla是想要複製人類駕駛資訊輸入的感官
那勢必"測距+3D"就是最後一哩路
當然當代AI能不能透過更多攝影鏡頭或是更複雜的運算去繪製出3D我就不太確定
但Radar就是補足這方面的功能
隨著Tesla購入大量LiDar進行訓練建立數據庫以及決策模型
未來會不會有一天轉彎也蠻令人好奇的
--
※ 發信站: 批踢踢實業坊(www.ptt-website.tw), 來自: 136.226.240.114 (臺灣)
※ 文章網址: https://www.ptt-website.tw/car/M.1742433824.A.4CC
→ leefengynh: 黑人問號 03/19 13:46
→ leefengynh: 我家攝影機全黑暗房間中看得一清二楚 03/19 13:46
→ leefengynh: 人眼完全看不到 03/19 13:46
→ leefengynh: 你說人眼比較強xddd? 03/19 13:47
→ leefengynh: 然後你這文組硬體代工腦 03/19 13:47
推 OBTea: 視覺+光學整合是在自然界中很少見的,整合進AI 就是加成本 03/19 13:05
→ OBTea: 沒錯 03/19 13:05
→ OBTea: 修正:視覺+光達 03/19 13:06
→ d4015394: 攝像頭比人眼弱我還是第一次聽到 03/19 15:18
→ d4015394: 人眼比鏡頭強,我直接肉眼看就好,我幹嘛先用手機拍下 03/19 15:49
→ d4015394: 來,再放大來看 03/19 15:50
→ d4015394: 不是讀醫學的在那邊胡說八道 03/19 15:50
推 zyx12320: 純視覺繪製3D不就2022年發表的佔用網路 03/20 09:41
→ moom50302: 呃,特買光達已經很久的事情了,用來檢核視覺結果而已 03/20 09:42
→ nrsair: 人眼加人腦比較聰明 03/20 09:43
→ nrsair: 但是人也經常會犯錯 03/20 09:48
推 StarburyX: 特斯拉就沒在弄這些了 剩下自動停車還在用 03/20 09:54
→ StarburyX: 規控頭頭 都在V12那波離職了 03/20 09:54
→ mussina27: 有什麼特殊的理由需要很耗電的LiDAR? 現有的 mmWave 4D 03/20 10:21
→ mussina27: radar 也是有很多可能性不是嗎 03/20 10:21
推 Sean0428: Andrej Karpathy 之前在no priors 節目就有提到 實際上 03/20 10:35
→ Sean0428: 特斯拉也有用到其他感測器 只是在training model 使用 03/20 10:35
→ Sean0428: 這些數據被蒸餾成只需要鏡頭的模型在車上運行 有興趣可 03/20 10:35
→ Sean0428: 以去看看整篇訪問 03/20 10:36
→ dslite: 用雙鏡頭視差就能測距了 比如hitachi eyesight的acc. 也 03/20 11:10
→ dslite: 確實能像影片那樣做假景騙過它 畢竟人類對環境的觀察力遠 03/20 11:10
→ dslite: 高於目前電腦視覺只專注在某個視角內的物品 03/20 11:10
→ dslite: 4D雷達應該也是貴 傳統車廠都沒興趣 03/20 11:14
推 kira925: 雙鏡頭就是Subaru Eyesight那一套 03/20 11:15
→ kira925: 但是多鏡頭系統的視差怎麼做出景深也是需要好好琢磨的 03/20 11:16
推 supereva: 圖片那個我也會被騙啊XD 03/20 11:36
→ playdoom: 所以特斯拉前面,至少兩顆鏡頭,創造視差,這些鏡頭,可 03/20 12:40
→ playdoom: 以在停車時,一一查看 03/20 12:40
推 leefengynh: 不會轉彎 特斯拉完全自動駕駛內部已經做出來了XDDDD 03/20 15:23
→ leefengynh: 接下來就是逐步先放到無人計程車裡面 之後再放到車主 03/20 15:24
→ leefengynh: 騙得過AP也騙不過FSD FSD你甚至不用平面照片 03/20 15:25
→ leefengynh: 你直接用一層透明板 放在道路中間 03/20 15:25
→ leefengynh: 透明板看過去另一側 是真實的道路 03/20 15:26
→ leefengynh: FSD一樣不會被騙 03/20 15:26
→ leefengynh: @dslite 03/20 15:26
→ leefengynh: 你該多去看網上的FSD測試影片 03/20 15:27
→ leefengynh: 不是拿EAP在這邊吵 03/20 15:27
→ leefengynh: 一直拿google助理的對話 來說goole gemini是智障 03/20 15:28
→ leefengynh: 你知道是不同人嗎 功課都不做 整天用幻想的XDDDDDDDDD 03/20 15:28
推 leefengynh: 我再說一次 特斯拉「完全自動駕駛」已經做出來了 03/20 15:35
→ leefengynh: 已經從去年年底一直測試到現在 03/20 15:35
→ leefengynh: 並且即將在6月的奧斯丁部署無人計程車 03/20 15:35
→ leefengynh: 「沒有方向盤」的cybercab產線也已經佈好了 03/20 15:36
→ leefengynh: 預計明年初就要量產 03/20 15:36
→ leefengynh: 反對純視覺 你就該把我們研究透徹 03/20 15:37
→ leefengynh: 這樣你才能精準反駁 03/20 15:37
→ leefengynh: 不是總是躲在你自己的小圈圈幻想 03/20 15:38
→ leefengynh: 光達車就是在馬路上生不出像樣的產品 03/20 15:38
→ leefengynh: 因為物理極限就擺在那裡 光達自駕2010年就在研發了 03/20 15:39
→ leefengynh: 到2025年還是不長進 03/20 15:39
噓 weichungBRO: 都2025年了還在光達 傻眼 03/20 16:23
→ weichungBRO: 就人眼比攝像頭強好了 但反應速度 疲勞度 專注度 03/20 16:25
→ weichungBRO: 人都遠遠比不過機器 這樣講文組的懂嗎 03/20 16:25
→ Killercat: 3D問題算小 Occupancy Network就是為了解決單鏡頭 03/20 19:01
→ Killercat: 3D建模而有的演算法 缺點是要動 東西不動就沒輒 03/20 19:01
→ Killercat: 但是開著車基本上不可能不動 所以問題不大 03/20 19:02
→ Killercat: Tesla也是走這個solution 所以每個方向攝影機都只有 03/20 19:02
→ Killercat: 一個 但是可以建模出大多數車身周圍的3D模型 03/20 19:02
推 Killercat: 另外能夠利用影片做訓練 這個也是一個很大因素 03/20 19:17
→ Killercat: 不然影片就只能做tagging而已 03/20 19:17
推 iosian: 相機角分辨率要超過人眼是輕而易舉,動態範圍也是,轉向可以 03/20 23:20
→ iosian: 靠多目相機克服,有多目就有立體視覺,問題都在要花多少錢, 03/20 23:20
→ iosian: 然後LiDAR解析度是遠低於相機的 03/20 23:20
→ moom50302: 並沒有,特很早就沒再買光達了,業績和股價說明一切 03/21 09:10
→ oicla: 特去年不是有買光達嗎 去年第一季特是光達最大客戶 03/21 12:35