回覆列表
  • 1 # 86262

    最近剛看了一個測試,用泡沫假人做的實驗,較低速時自動剎車系統會將車剎停避免碰撞,較高速時自動剎車只減速,達不到剎停的效果。大致的車時速分界線是40公里左右,高於這個值自動剎車就不能剎停了。

    進一步說到自動駕駛系統,這個還涉及到倫理問題,如果碰撞不可避免,是優先保護守規則的一方?優先保護行人?如何把損失降到最低?這都是自動駕駛需要解決的問題。所以目前只有輔助駕駛,儘管輔助系統做的再智慧,最終的決策者依然是駕駛員。

  • 2 # 福國福考場1

    自動駕駛車輛還沒有那麼智慧的分辨技術,它的自動剎車防碰撞功能需要時速在35公里以下,超過這個車速,在距前方150米處開始雷達報警提示音,然後開始降速,並不會完全停車,在沒有駕駛員介入措施前,也有可能撞上前車,,只能說自動駕駛還是需要人去掌握,或者說是自動輔助駕駛。

  • 3 # 王超80971

    問題本身有問題,把車禍變成了要麼會撞到行人,要麼會傷害到駕駛員,這也太極端了吧。一瞬間的車禍自動駕駛系統如何去辨別怎麼做以及帶來什麼結果的問題。他只會按照他程式去操作。你說的這兩種結果和自動駕駛系統程式設計沒關係。就好像問你媽媽和媳婦掉河裡先救哪個一樣的

  • 4 # 老車主說車

    一.機器人不得傷害人,也不得見人受到傷害而袖手旁觀 二.機器人應服從人的一切命令,但不得違反第一定律 三.機器人應保護自身的安全,但不得違反第一、第二定律

    那麼這個定律有沒有漏洞呢?當然有!

    根本不需要去苦思冥想一種三定律制定者沒有考慮到的特殊情況,問題的關鍵在於,這三個定律根本就是在從人類的角度去制定的,就像一個上司給下屬定規矩那樣輕鬆寫意。最難的部分——“如何定義人類?如何定義傷害?如何定義命令?如何定義自保?”這些真正重要的問題都被略過了。

    這個漏洞就在你的問題裡出現了,是保護車主還是行人,假如必須死一個才能活一個話。他會像電影裡演的為了原則一樣去殺人。

    一、保證乘車人和其他人類的人身安全;

    二、在不違反第一條的基礎上,不得違反道路交通安全法;

    三、在不違反前兩條的基礎上,應保證自身車體不受損。

    這三大原則錯了嗎?好像一時間找不出什麼大錯;這三大原則對發展無人駕駛有幫助嗎?幫助為0。

    怎麼讓程式理解“人身安全”?道路交通安全法是用人類的語言寫給人類看的,怎麼將它轉換成一個個可以讓計算機理解的引數?怎麼才能讓自身車體不受損?用什麼樣的手段檢測外部環境?這些才是關鍵的。

  • 中秋節和大豐收的關聯?
  • 便宜又好用的美白產品?