国产成人精品无码青草_亚洲国产美女精品久久久久∴_欧美人与鲁交大毛片免费_国产果冻豆传媒麻婆精东

18143453325 在線咨詢 在線咨詢
18143453325 在線咨詢
所在位置: 首頁 > 營銷資訊 > 行業(yè)動態(tài) > 從備受爭議的自動駕駛談起

從備受爭議的自動駕駛談起

時間:2022-04-13 16:03:01 | 來源:行業(yè)動態(tài)

時間:2022-04-13 16:03:01 來源:行業(yè)動態(tài)

2015年5月,工信部發(fā)表《中國制造2025》,將智能車聯網提升到國家戰(zhàn)略高度。至今三年時間里,各項政策層出不窮,甚至開放了包括北京上海的部分道路在內的一部分路段作為路測。然而,近來,自動駕駛汽車的安全與倫理一直備受爭議,不僅發(fā)生了幾起令人側目的特斯拉自動駕駛系統(tǒng)事故,還在2018年3月發(fā)生一起致命事件。在該起致命事件中,Uber自動駕駛車輛與行人之間發(fā)生碰撞并導致行人死亡。這讓人們不禁關注起自動駕駛技術的敏捷度、安全性、以及車企如何能夠保證它萬無一失。

王曉雷表示, 比起完全信息博弈,自動駕駛更像是一場司機與環(huán)境的對話。這里面涉及眾多環(huán)節(jié)。比如定位與映射;場景理解;路徑規(guī)劃;狀態(tài)感知等等 。

如此復雜的流程必須依靠包括深度學習在內的人工智能技術進行支撐,機器通過大量數據的采集與特征提取,在一定算法的基礎上自主的完成優(yōu)化和改進,從而最終得出一個具有統(tǒng)計學意義的結果。這個統(tǒng)計學結果的得出其實是值得探討的。由于包括數據量不足和模型本身的種種限制,深度學習并不能實現100%的準確性。

人工智能背后是一整套算法的支持,而這些算法的優(yōu)化又依賴于大量的數據進行不斷的訓練,從而獲取到一個在訓練數據上相對較好的模型,然后再利用這一模型對其他數據做出預測。在這一過程中,任何一個因素都有可能導致預測結果出現一個偏差。舉一個例子,當我們試圖訓練一個模型來創(chuàng)作一行標題用以描述圖片內容時,我們常常認為該模型是在理解圖片的內容的基礎上,從而產生相應的標題。然而,當輕微改變訓練數據中存在的圖像時,比如調制一些特制的噪聲進去后,研發(fā)者會非常驚訝地發(fā)現模型開始創(chuàng)作完全荒謬的字幕。



通常,這類行為被強調為對抗案例,通過向深度學習網絡輸出錯誤的樣本來欺騙模型。 如上圖所示,我們拍攝一輛卡車,添加一個鴕鳥梯度噪聲,則訓練好的神經網絡可以以很高的置信度將這輛卡車分類為鴕鳥,而人類肉眼完全無法判斷這兩張圖片之間的區(qū)別。 這證明了深度學習模型并非萬能的,它們從輸入到輸出映射與我們人類感知之間的深刻差異。

簡而言之,深度學習模式對他們的輸入沒有任何理解,至少不是從人的意義上來說。我們對圖像,聲音和語言的理解是基于我們的運動感覺體驗。然而機器人卻沒有這種經驗,因此不能以任何以人為本的方式理解他們的駛入。通過輸入大量的培訓示例來訓練我們的模型,我們讓他們學習一個幾何變換,將數據映射到這個特定的一組示例上的人類概念,但是這個映射只是我們思想中原始模型的簡單草圖。

這也就是現在人工智能技術發(fā)展的困境。同樣,這與適用于自動駕駛技術?,F在對于人工智能的態(tài)度,兩類人是恐懼的。一類是不懂的人,他們認為人工智能是破壞性的;另一類是懂的人,因為他們知道人工智能能夠解決很多現實問題,但是這需要對人工智能技術有個正確的認識和用法,特別是算法的設計。

當算法應用于產品時,我們不僅僅要考慮算法是否能夠實現需求,同時還必須考慮算法本身的性能和準確性,這就和算法本身的體系搭建有著密切的關系。

關鍵詞:駕駛,爭議

74
73
25
news

版權所有? 億企邦 1997-2022 保留一切法律許可權利。

為了最佳展示效果,本站不支持IE9及以下版本的瀏覽器,建議您使用谷歌Chrome瀏覽器。 點擊下載Chrome瀏覽器
關閉