-
1 # 3D列印科普達人
-
2 # 姚鶴鶴
由於法律的擬定是需要具體案例來推動的,現階段從法律條款上並無相應約束。不過按照題主的意思,這是一個腦洞題,那麼就進行一番推演。
現在出現了一點兒小意外,使用者的手被捲了進去,導致手指被榨汁機內的刀頭所傷,那麼現在對於判斷案例可能就會集中在:
1. 使用者是否由於違規操作導致,應該自行承擔,例如有人開著車,路況正常,車輛正常,自己開到了河裡。
2. 製造者由於裝置的安全隱患導致,對市場上銷售了有問題的裝置,廠商來賠償,例如有人開著新買的車,操作沒有問題,但是突然車的剎車出了問題導致開到了河裡。
上述的所有可能都是建立在榨汁機是屬於生產者或使用者高度可控的程度。
那麼,增加其“自主意識”屬性。現在這臺榨汁機突然有能耐了,不完全受生產廠家和使用者控制了。這個時候,是屬於其“故意”還是“過失”?在這個選擇題前,需要明確一個關鍵,即,對於人工智慧產品,其所具有的“意識”,法律上是否認可其能夠獨立承擔責任。
現階段肯定是無法認可,依舊會按照上述兩條找責任方是屬於生產商還是使用者。但是往長遠想,認為一個人工智慧產品具有“高度意識”。
還是在現有法律裡猜答案,對於未成年人犯罪,先行法律則認為其監護人有承擔賠償的責任。也就是對於未成年人,即未滿14歲,無刑事責任能力的人,不負刑事責任。所以,不滿14週歲的人是不構成犯罪的。
因此,我猜之後的法律更加不會認可,即刑事責任不追責,民事責任依舊會找他的監護人,即“生產廠家”來進行賠償。也就是,只需要其生產廠家對被害人進行賠償。
人工智慧的真實案例是怎麼判的先看一箇舊聞。2018年3月,蘋果工程師 Walter Huang(黃偉倫)開著自己的特斯拉 Model X 上班時不幸發生了致死車禍,他的車一頭撞上了高速公路下道口的隔離墩。當時,特斯拉 Autopilot 處於開啟狀態,但卻未能識別路上的障礙。更可怕的是,在車輛接近隔離墩時,它還控制車輛加了速。
事故發生後,美國國家運輸安全委員會(NTSB)開始著手對其進行深入調查,最近它們才終於公佈了調查報告。
報告內容大家有興趣可以自己來看,我這邊先說一下具體的結果:
1. Walter Huang 要為自己的意外去世買單,因為他心裡很清楚 Autopilot 在這個下道口力有不逮(此前曾兩次遇到過類似問題)。此外,開車打遊戲也是他的不對。現在的 Autopilot 只是一套 ADAS 系統,司機不能指望它“全知全能”。
2. 負責公路管理的 Caltrans 在工作上也有需要完善的地方,比如儘快修復受損設施並更新道路標線。
3. 此次事故特斯拉不用負什麼責任。
目前的人工智慧,還不是題主說的具有“自我意識”,但是可以看到,目前對待科技的態度,還在找到事故背後人的因素。
總之不要過度信賴科技,看到不傷手的刀,也不要用自己的手去試,畢竟最後依舊是人來買單,刀還是刀。
-
3 # AI那些事兒
首先我們來科普一下機器人三原則,1942年,Asimov在他的小說中首次提到機器人三原則,即機器人的設計、開發和使用都要遵循下面的三個原則:
第一法則機器人不得傷害人類,或因不作為(袖手旁觀)使人類受到傷害。第二法則除非違背第一法則,機器人必須服從人類的命令。第三法則在不違背第一及第二法則下,機器人必須保護自己。所以如果按照這個法則順序的話,機器人是不會傷害人類的,但是這其中又要涉及到傷害、服從、保護等詞的模糊法律定義,所以會不會出現機器人為了保全自己而損害人類安全的事情也就不得而知。
近幾年來,隨著基於深度學習的人工智慧產品火熱起來後,這個話題再次引起大眾的熱議,主要分為悲觀派和樂觀派。悲觀派陣營主要有史蒂芬·霍金、埃隆馬斯克、比爾蓋茨,霍金認為人工智慧的全面發展可能導致人類滅,特斯拉創始人馬斯克認為人工智慧未來或許比核武器更加危險,比爾蓋茨表示,人類應該敬畏人工智慧的崛起。樂觀派的主要代表有谷歌執行董事施密特、facebook創始人扎克伯格、蘋果CEO庫克,以及中國的阿里巴巴創始人馬雲、百度李彥宏、創新工場李開復等,他們的主張大致是AI是一項服務於人類的技術,會解放生產力,讓人類享受更好的生活。
同時,許多AI工作者正在努力確保人工智慧的研發是有益的,並且不對研發人員設立不必要的限制。2018年1月,AI界精英在加州阿西洛馬的開會,並制訂了《阿西洛馬人工智慧原則》,會議希望透過制定的23項原則在一定程度上確保AI的研發能讓所有人收益。迄今為止,已有超過1200名AI研究人員和2300名相關人士簽署了該原則。
現在回到問題,假如人工智慧有自我意識後,殺了人,怎麼判斷是故意還是過失?如果真到了人工智慧有意識且有動機殺人的時候,不是判斷人工智慧殺人的法律問題,而真的是擔憂人類生死存亡的時候到了。但是在可見的未來(100年)不會出現強人工智慧(有意識)。
如果AI自動駕駛汽車出現事故導致乘客傷亡,該是誰的責任呢?
人類的發展是艱難而曲折的,我們在其中制定了一個又一個法律和規範,制約人類向更美好的未來發展,但是沒有人知道什麼時候會不經意開啟潘多拉盒子導致人類滅亡,其實人類已經打開了一個潘多拉盒子,你們知道是什麼嗎?
-
4 # AI學習社
首先他不會有自我意識
所有意識都是人編寫進去的
有些可能會收集人的動作和習慣
然後複製成人工智慧自己的行為
所以只要是犯罪,必有因
-
5 # 燃點最後一團火
其實這個時候你去追究人工智慧什麼責任都是多餘的.
這些還重要嗎?
不管是故意,還是過失.又有什麼區別呢.
一般以人們這時候的思維習慣,第一肯定考慮索償.
向商家或廠家追討賠償.
因為人工智慧不是人,無論你怎麼判斷它什麼罪名,也失去了意義.
如果是人,你或者寧願告他坐牢,但是對於人工智慧,你除了索償還有什麼選擇?
回覆列表
這個問題大了,不光是法律判決層面的事。那是人類面臨人工智慧的巨大危脅,有必要叫停。如果真要給出判決,定要找出人工智慧公司或研究機構,瞭解他們讓人工智慧執行任務的初衷動機。初衷不良,動機不純就不是意外而是故意,兩者都以謀殺定罪。