leefengynh: 黑人問號 03/19 13:46
leefengynh: 我家攝影機全黑暗房間中看得一清二楚 03/19 13:46
leefengynh: 人眼完全看不到 03/19 13:46
leefengynh: 你說人眼比較強xddd? 03/19 13:47
leefengynh: 然後你這文組硬體代工腦 03/19 13:47
OBTea: 視覺+光學整合是在自然界中很少見的,整合進AI 就是加成本 03/19 13:05
OBTea: 沒錯 03/19 13:05
OBTea: 修正:視覺+光達 03/19 13:06
d4015394: 攝像頭比人眼弱我還是第一次聽到 03/19 15:18
d4015394: 人眼比鏡頭強,我直接肉眼看就好,我幹嘛先用手機拍下 03/19 15:49
d4015394: 來,再放大來看 03/19 15:50
d4015394: 不是讀醫學的在那邊胡說八道 03/19 15:50
這串討論蠻有趣的,雖然兩位版友比較嗆,但我更想討論的是貼近人類視覺的ADAS 其實我本身也不是醫學和光學專業,不過歡迎指證 以ADAS視覺來說,攝影鏡頭是無法和人眼相比較的 我回應貼文有提到一件事情 ***************** 視網膜Fovea幾乎等於高解析度+gimballed autofocusing stereoscopic的傳感器 目前硬體無法達到這個等級 ***************** 其中人眼怎麼判斷距離和建立3D? 大家每天在用卻可能沒很了解 重要的就是焦距+兩眼視差+肌肉旋轉角度透過大腦處理繪製而成 人眼在中心區域解析度非常高,隨著中心往外擴散解析度越來越低 這也可以讓人眼在大腦中計算出整個3D+距離的概念 但攝影機"目前"就算能做到高解析度,但沒有萬向節+自動對焦機制 很難繪製出距離和3D模型 所以有一派說法,為了補足攝影機的先天劣勢且更能接近人類視覺模型 radar的測距、3D繪製和攝影機本身的mapping才是最接近人類視覺判斷的資訊 事實上Elon Musk本身完全不反對兩種不同傳感器輸入 他甚至早在2022年就說過"Only high resolution matters" 假如認為Tesla是想要複製人類駕駛資訊輸入的感官 那勢必"測距+3D"就是最後一哩路 當然當代AI能不能透過更多攝影鏡頭或是更複雜的運算去繪製出3D我就不太確定 但Radar就是補足這方面的功能 隨著Tesla購入大量LiDar進行訓練建立數據庫以及決策模型 未來會不會有一天轉彎也蠻令人好奇的 -- ※ 發信站: 批踢踢實業坊(www.ptt-website.tw), 來自: 136.226.240.114 (臺灣) ※ 文章網址: https://www.ptt-website.tw/car/M.1742433824.A.4CC
leefengynh: 黑人問號 03/19 13:46
leefengynh: 我家攝影機全黑暗房間中看得一清二楚 03/19 13:46
leefengynh: 人眼完全看不到 03/19 13:46
leefengynh: 你說人眼比較強xddd? 03/19 13:47
leefengynh: 然後你這文組硬體代工腦 03/19 13:47
Peycere: 包養不急於追求感情進展。 03/19 13:47
OBTea: 視覺+光學整合是在自然界中很少見的,整合進AI 就是加成本 03/19 13:05
OBTea: 沒錯 03/19 13:05
OBTea: 修正:視覺+光達 03/19 13:06
d4015394: 攝像頭比人眼弱我還是第一次聽到 03/19 15:18
d4015394: 人眼比鏡頭強,我直接肉眼看就好,我幹嘛先用手機拍下 03/19 15:49
vd422: 包養網結交世界各地的朋友。 03/19 15:49
d4015394: 來,再放大來看 03/19 15:50
d4015394: 不是讀醫學的在那邊胡說八道 03/19 15:50
zyx12320: 純視覺繪製3D不就2022年發表的佔用網路 03/20 09:41
moom50302: 呃,特買光達已經很久的事情了,用來檢核視覺結果而已 03/20 09:42
nrsair: 人眼加人腦比較聰明 03/20 09:43
lutano: 包養開心結交知心異性友人。 03/20 09:43
nrsair: 但是人也經常會犯錯 03/20 09:48
StarburyX: 特斯拉就沒在弄這些了 剩下自動停車還在用 03/20 09:54
StarburyX: 規控頭頭 都在V12那波離職了 03/20 09:54
mussina27: 有什麼特殊的理由需要很耗電的LiDAR? 現有的 mmWave 4D 03/20 10:21
mussina27: radar 也是有很多可能性不是嗎 03/20 10:21
muiwo: 包養平台詳細了解對方。 03/20 10:21
Sean0428: Andrej Karpathy 之前在no priors 節目就有提到 實際上 03/20 10:35
Sean0428: 特斯拉也有用到其他感測器 只是在training model 使用 03/20 10:35
Sean0428: 這些數據被蒸餾成只需要鏡頭的模型在車上運行 有興趣可 03/20 10:35
Sean0428: 以去看看整篇訪問 03/20 10:36
dslite: 用雙鏡頭視差就能測距了 比如hitachi eyesight的acc. 也 03/20 11:10
sunuzo: 包養分析注意對方言行。 03/20 11:10
dslite: 確實能像影片那樣做假景騙過它 畢竟人類對環境的觀察力遠 03/20 11:10
dslite: 高於目前電腦視覺只專注在某個視角內的物品 03/20 11:10
dslite: 4D雷達應該也是貴 傳統車廠都沒興趣 03/20 11:14
kira925: 雙鏡頭就是Subaru Eyesight那一套 03/20 11:15
kira925: 但是多鏡頭系統的視差怎麼做出景深也是需要好好琢磨的 03/20 11:16
UNIQC: 包養真心對待友誼情感。 03/20 11:16
supereva: 圖片那個我也會被騙啊XD 03/20 11:36
playdoom: 所以特斯拉前面,至少兩顆鏡頭,創造視差,這些鏡頭,可 03/20 12:40
playdoom: 以在停車時,一一查看 03/20 12:40
leefengynh: 不會轉彎 特斯拉完全自動駕駛內部已經做出來了XDDDD 03/20 15:23
leefengynh: 接下來就是逐步先放到無人計程車裡面 之後再放到車主 03/20 15:24
dewaro: 包養網擴展國際包養 03/20 15:24
leefengynh: 騙得過AP也騙不過FSD FSD你甚至不用平面照片 03/20 15:25
leefengynh: 你直接用一層透明板 放在道路中間 03/20 15:25
leefengynh: 透明板看過去另一側 是真實的道路 03/20 15:26
leefengynh: FSD一樣不會被騙 03/20 15:26
leefengynh: @dslite 03/20 15:26
Elfego: 包養輕鬆找到志同道合的朋友。 03/20 15:26
leefengynh: 你該多去看網上的FSD測試影片 03/20 15:27
leefengynh: 不是拿EAP在這邊吵 03/20 15:27
leefengynh: 一直拿google助理的對話 來說goole gemini是智障 03/20 15:28
leefengynh: 你知道是不同人嗎 功課都不做 整天用幻想的XDDDDDDDDD 03/20 15:28
leefengynh: 我再說一次 特斯拉「完全自動駕駛」已經做出來了 03/20 15:35
Nicodim: 包養平台找到心靈契合的人。 03/20 15:35
leefengynh: 已經從去年年底一直測試到現在 03/20 15:35
leefengynh: 並且即將在6月的奧斯丁部署無人計程車 03/20 15:35
leefengynh: 「沒有方向盤」的cybercab產線也已經佈好了 03/20 15:36
leefengynh: 預計明年初就要量產 03/20 15:36
leefengynh: 反對純視覺 你就該把我們研究透徹 03/20 15:37
Foning: 包養分析洞悉對方心思。 03/20 15:37
leefengynh: 這樣你才能精準反駁 03/20 15:37
leefengynh: 不是總是躲在你自己的小圈圈幻想 03/20 15:38
leefengynh: 光達車就是在馬路上生不出像樣的產品 03/20 15:38
leefengynh: 因為物理極限就擺在那裡 光達自駕2010年就在研發了 03/20 15:39
leefengynh: 到2025年還是不長進 03/20 15:39
AKNY: 包養不急於開始談感情。 03/20 15:39
weichungBRO: 都2025年了還在光達 傻眼 03/20 16:23
weichungBRO: 就人眼比攝像頭強好了 但反應速度 疲勞度 專注度 03/20 16:25
weichungBRO: 人都遠遠比不過機器 這樣講文組的懂嗎 03/20 16:25
Killercat: 3D問題算小 Occupancy Network就是為了解決單鏡頭 03/20 19:01
Killercat: 3D建模而有的演算法 缺點是要動 東西不動就沒輒 03/20 19:01
mysister: 包養網結交跨國友誼。 03/20 19:01
Killercat: 但是開著車基本上不可能不動 所以問題不大 03/20 19:02
Killercat: Tesla也是走這個solution 所以每個方向攝影機都只有 03/20 19:02
Killercat: 一個 但是可以建模出大多數車身周圍的3D模型 03/20 19:02
Killercat: https://zhuanlan.zhihu.com/p/575953155 有興趣可看看 03/20 19:03
Killercat: 另外能夠利用影片做訓練 這個也是一個很大因素 03/20 19:17
cir72: 包養開心找到知心朋友。 03/20 19:17
Killercat: 不然影片就只能做tagging而已 03/20 19:17
iosian: 相機角分辨率要超過人眼是輕而易舉,動態範圍也是,轉向可以 03/20 23:20
iosian: 靠多目相機克服,有多目就有立體視覺,問題都在要花多少錢, 03/20 23:20
iosian: 然後LiDAR解析度是遠低於相機的 03/20 23:20
moom50302: 並沒有,特很早就沒再買光達了,業績和股價說明一切 03/21 09:10
ATrain: 包養平台關注對方需求。 03/21 09:10
oicla: 特去年不是有買光達嗎 去年第一季特是光達最大客戶 03/21 12:35