-
1 # ACME63610374577
-
2 # IT數碼大排檔
禁或者限制AI發展?阿里、谷歌、微軟、英特爾、華為、小米等上萬家公司正組團貼公告找你拼命呀喂。
終結者裡邊的天網?駭客帝國的矩陣?生化危機的皇后?下圍棋的阿爾法狗?富士康的機械臂?特斯拉的“自動”駕駛?
前三個太遙遠了。那屬於AI定義上的強人工智慧,並且前兩個強人工智慧還長歪了,當然眉清目秀的也有,如大白、瓦力。
後三者在我看來弱人工智慧還算不上,像阿爾法狗更多的是依靠海量資料計算來執行指令。而富士康的機械臂只是一套程式的判斷輸出指令。
我記得在動漫哆啦A夢中就有一集劇場版講的是關於AI叛變的。機器人在輸入“邪惡”指令下把人來當牛當馬來使喚。
我猜,你擔憂的正是這個:AI危害到人類自由和生存。也就是AI威脅論。
關於人類的發明有個有趣的說法,正因為人類想偷懶,所以發明了這些那些工具(洗衣機……洗碗機……機械臂……)來替代勞動力。AI現在的目的也很明顯,就是解放勞動力,使得人類可以有更多的時間從中解放從而推動科技、社會發展。
而事實上,因為各種原因,即使使用“AI”替代了人工勞作,特別是密集型產業。那些失業的人在衣食堪憂的情況下去考慮類似蘋果為何會掉下來這些問題?只會帶來社會的不穩定性。
但不能因為這些科技就能因噎廢食,停滯不前吧?回到刀耕火種的時代估計沒幾個現代人願意。在享受科技便利的同時又埋怨科技。這不是很矛盾麼?
社會不穩定政府會調控,當前政府不調控會有別的政府幫他調控。
和核一樣,核能帶來毀滅也能帶來能源便利,凡事都有兩面性。
AI這條路不止公司企業在走,政府也在支援鼓勵扶持,是未來科技爆炸必然要走的路。
如果未來科學家真的製造出不可控AI---未來還多遠,我卻早已屍骨無存---哪怕洪水滔天,我自站在喜馬拉雅巔。
生活,不止眼前的AI,還有星辰大海。
-
3 # 方秉潮
謝友友邀答:
是該出臺一個像禁用核武器那樣的條約,來限制一下在人工智慧的發展中,會出現被邪惡利益集團所操控的人工智慧,像用核武器一樣來毀滅人類,或奴役人類。
眾所周知,人類自從研究成功了原子核裂變,產生的巨大能量,這個新能量,就是我們普遍稱之為的;核能源。
核能源為人類提供了巨大的,無可以其他能源所能夠產生的能動力,比方用核反應堆發電的電站,用核動力推動的船艦,或許在未來的巨型航天器等。
但是每項新事物新科技的產生,都會帶來對人類有利有弊的一面,核能給人類帶來巨大利益的一面,同時也製造成核武器給人類帶來了危害的一面。所以人類就制定了禁核條約,來限制各國擁核的亂象,避免給人類帶來災難。
同樣,就目前人類對人工智慧的研究使用已漸趨於成熟,也在某些領域已成功使用,而且有更快高速地向更尖端人工智慧的突破實現使用。當然,這些能更快發展人類社會的經濟,生產力,能強大人類,能讓人類有更好品質的生活質量,解放人類的繁重低階勞動,讓人類更快掌握探索太空,向太空汲取人類所能用和代替人類已枯竭的資源技術,而且能讓人類戰勝一切,或太空外來的一切危害。這都是好的對人類有益的一面。
那麼既然人工智慧能給人類帶來這麼多有益的方面,為何還要應該出臺一個禁用人工智慧條約呢?對,這就是要早點防患於未然。如果沒有一些禁用人工智慧的條約來約索人工智慧發展和利用,就會發生像原子彈那樣的核武器一樣,危害人類自身。也就會像一些科Phantom片和小說中所那樣的一些事例發生;人工智慧一旦被邪惡集團利用,將會危害人類無窮。
-
4 # 抱撲若拙
核武被限制了嗎?
印度和巴基斯坦擁核也沒怎麼樣,日本核材料可以早1000枚核彈也沒怎麼樣!
所以,ai不會也無法禁止。相反,世界上幾個大國不能不竭盡全力發展ai,因為一旦ai普及,落後的民族將在很長時間難以追趕上。落後就要捱打。
-
5 # 麻辣戰爭
人工智慧目前所處的進展,甚至連嬰兒期都算不上,只能算還處於胚胎期,對於這樣一項對人類命運影響重大,對人類文明發展關係重大的技術,在這麼早的時候就想著對它進行限制,確實想早了,也想多了。
人工智慧技術和核武器有本質的不同,核武器一旦釋放,能夠毀滅人類,這是確定的,而不是猜想;但人工智慧毀滅人類,目前只是一種猜想,更多是受到“未來戰士”、“駭客帝國”等電影的影響,其實,人工智慧究竟能發展到什麼程度,人類對於高度發展的人工智慧究竟能不能完全掌控,對此我們瞭解的並不多。
正是因為未知,所以恐懼!
所以很多科學家、幻想家、思想家對人類發展人工智慧提出警告,這是必要的,但因此在現階段就限制人工智慧的發展,那就做的過頭了。
人類所有的條約、法律的制訂,都是在進行較充分的社會實踐之後才開始制訂,較充分的瞭解,是制訂條約、法律的前提,如果你對一件事物根本都不瞭解,你要怎麼限制呢?
人工智慧的發展,是可能極大改變人類的生活,極大改變人類技術進步的速度,極大加速人類發展的重大技術發展方向,從這方面來看,它的對人類的重要性比核武器高几個檔次,因此,在初期對它進行限制,只能說誰這麼幹誰傻帽,因為你就會在人工智慧方面落後了。
-
6 # 流浪者話
首先你提出的這個問題非常值得高度關注與研究,並且我個人贊成如管制核武器般管制人工智慧的濫用。
萬事萬物均有利弊,這是辯證觀。不管人工智慧有多麼大的意義,都必須納入法制體系嚴加管制。對於人工智慧來講,沒有任何人敢保證其在成熟後不對人類自身的繁衍與生產產生致命的威脅!在某位著名作家的科幻小說中羅列了所謂機器人世界三條戒律,但這三條戒律本身就是邏輯迴圈的悖論!讓一個具備足夠智商的機器人在其主人面前自盡,該是怎樣一個邏輯呢?
歐盟今日出臺的保護私人隱私法規,與其說保護私人隱私,不如說拉開了人類保護不受機器傷害的序幕!仔細觀察當下幾乎所有的網路應用、大資料、低階的人工智慧應用,無一例外竊取和盜用了人類的各種資訊。
現實世界中,資訊儲存在機構是經歷了數十年的社會治理後形成的,而遠非一日蹴就!在虛擬世界中,新誕生機構隨意採集、儲存、使用資料卻是監管盲區。試想,機器在具備足夠智慧時,它可以秒級加工資料,甚至可以調動全球聯網的機器一起加工資料,得到符合機器世界的新邏輯,而機器傳遞一個指令可以光速到達併發揮作用,因為機器的世界無語言的緩衝地帶!所以機器產生的危害就極其嚴重。它完全可以任性的玩!
可能有所謂專家不同意我的觀點,那隻想陳述兩個最基本的事實:1、計算機軟體發展到今天,還無一個應用程式完全不會出現意外,理論上早已證明了這點,並且,讓處理確定性任務的工具去處理不確定性世界的問題,由於這種問題具有不可窮舉性,所以機器出故障是絕對機率事件,但人類卻無法保障出的問題可控也是絕對機率事件!2、谷歌、臉譜等巨頭開放人工智慧相關應用的平臺和演算法程式碼的初衷不是幫助所有人都掌握人工智慧的技術,它們願意失去競爭優勢嗎?絕對不是。它們希望在有一天人工智慧逃離了人類控制時,能夠聚集全人類的智慧共同對付人工智慧!
近十年以來我一直呼籲建立虛擬世界與人工智慧的社會倫理研究體系。嚴控虛擬世界無管制亂象,更應該嚴管人工智慧的研究與應用。所謂三個層次的人工智慧應用,其廣義的應用更應該得到管制。但是我們又不得不面對一個現實,即:研究社會學的專家對技術瞭解並不深刻,導致有力發不出來的尷尬。所以跨界人才在不久的將來是迫切需要的資源,譬如,法律、倫理、營銷、社會治理等等。
當然,我們不應因噎廢食,但是誰也保證不了致命的工具被另類掌握的事情發生。所以,防患於未然是積極的努力!
-
7 # 汽車零部件管理磚家
出臺一個君子協定是非常有必要的。能夠起到設定倫理道德規範。劃定範圍,大家可以自由發揮想象,不至於跑偏。
很多關於機器人️的科幻電影,都有這方面的協定:機器人的底線是不能傷害人類,所有的條款只要跟這個衝突,都必須無條件遵守這一協議。
-
8 # 秀才寧採臣
謝謝誠邀,隨著人工智慧的高速發展。也必須要出臺一些相對應的政策跟法律法規來約束或規範人工智慧的發展,百家爭鳴,百家齊放固然是好,但完事都有利弊,任何一個行業的發展都不能威脅人類自身的發展就像核武器的發展一樣,對核武器的制約既限制了武器的濫用,也確保了人類在較長的一段時間內不會發生戰爭的可能性。歐盟委員會從2018年春季開始起草人工智慧相關法案進行規範人工智慧及機器人的使用和管理。
-
9 # 誠信友善智慧
是不是應該出臺一個像禁用核武器的條約,來限制一下人工智慧的發展?
美國在制定利己的世界規則,簡稱美國世界。
主宰全球,處處碰壁。
人工智慧就是另闢蹊徑的專案,
誰佔據高位,
誰就有話語權。
-
10 # 士東Simon
現在只是人工智慧的剛剛起步,離產生所謂的超級智慧還遠著呢。下一步,人工智慧會逐漸滲透進各行各業,提高生產率。
當然我們也要未雨綢繆,從一開始就要研究如何避免人工智慧失控,保證人工智慧為人類服務,比如埃隆馬斯克的Open AI Lab就是研究這個問題的。
回覆列表
不用...一九六幾年就有人工智慧的概念了...就有人像你一樣杞人憂天了...之後每二十年人工智慧就會掀起一個小高潮...然後快速降溫無人問津...現在人工智慧還能火個3-5年吧....
人工智慧的問題是這個名詞特別容易被混淆...我們經常會被一些裝置的輔助功能欺騙認為其實現了人工智慧...比如SIRI…還有AlphaGo...
真正的人工智慧是什麼?
1.不需要知道問題是什麼.直接給出答案....好比你考試一道題不會了.左邊學霸選A 學渣選C.你果斷選A這就是智慧.你不需要知道題是啥.答案是啥.
2.能思考.就是計算速度可快可慢...你可以最快速直接抄學霸的答案...也可以慢慢的收集全班的答案都看一遍..除了學霸都選C...這題可能真選C...
這其實就是典型的非數值計算...計算這種問題需要極大量的相關資訊進行加權處理才有可能...我們一直侷限於計算機的效能一直無法實現理論模型...沒錯幾十年前的模型...這次人工智慧死灰復燃是因為大資料的出現點燃了一點鬼火...然而仍然差的遠........