-
1 # 5597064379025
-
2 # 恆企智慧
其實我們應該明白,人工智慧的終始目的是什麼,人工智慧應該是協助人類完成重複性的工作、提高社會效率、一切是以服務人類為準則來開展,就像馬化騰所說的,一切科技應該是向善去展開,其實歸根究底我們最擔心的是人心對私慾的追求,人工智慧是我們能掌控和控制的東西,因為它們的出現存在是建立在能更好的服務人類,但是我們人類是無法控制同類的思想和人心的。所以這才是我們應該最為擔憂的事情。
-
3 # 宇宙之音傳播真理
倫理道德是當代的宗教裁判所,是沒落的宗教的變種,打著倫理道德的旗號,其實是對未來的無知和對未知的恐懼,根本不懂哲學,不懂人類社會的使命,不懂科學發展的方向,糊里糊塗亂定規則,有的還上升到法律層面。科學實驗什麼時候有百分之百的把握?如其那樣,美國的原子彈爆炸一定胎死腹中。
道德倫理就是科學的鎖鏈,必須徹底打碎。還科學一片晴天。
-
4 # 文史井觀
人類的基因技術已經出現了很多教訓,前車之鑑,所以人工智慧研究必須設立嚴格的倫理禁區,否則可能會是人類自掘墳墓。隨著人工智慧AI技術的發展,結合大資料技術,一切皆有可能,所以在此方面必須有所為、有所不為。
就目前的社會狀況而言,對於人工智慧的發展方向應該以人類做不了或者做不好的工作為主,而不應該研究那些人類已經可以勝任的工作。否則一旦用具備人工智慧的機器人替代人類工作,會造成失業問題,甚至社會的動盪。
人工智慧的發展前景很廣闊,有很多方面可以彌補人類的工作技能及生理特點等方面的不足,讓人工智慧成為人類的最佳拍檔,始終在人類的可控範圍內將是擺在人類面前的一大任務。
-
5 # kooper307
這個問題在邏輯鏈上本身就有問題。
禁區的建立是要先有建立禁區的資格。
人工智慧是否能有人類的情懷在於人們是否具備能力能讓它具備人類的情懷,說到底還是人們自身的問題。
舉個例子:你給小朋友們講微積分,然後讓他們用微積分解決實際問題,或是給失明失聰的人電影票。他們可能會迴應你聽不懂或者無視你,即使你用盡可能將這一資訊告訴雙失的那個人,也有可能得到你是神經病的迴應。
人工智慧的產品是給需要的人生產的,但需要不是用人工智慧就最好。
如果出題人是在用自己的價值觀去判定和他可能毫無關係的人工智慧是否能滿足她生存和發展的需求,未找到答案,然後慌亂的向外求所。
能用就用,用就要承擔用的責任,光進不出的那是貔貅。
另外,人工智慧也是有強弱之分的,在弱中有強,強中也有弱,不能一杆子劃定一切,這樣非黑即白的認知邏輯就現在而言已經是被淘汰的認知邏輯,再去談人工智慧,已經是在製造混亂了,還要要我給你幫襯,和你一起傻。
-
6 # 137億年前的氫二氧一
早在上世紀末,許多學者和關注未來的人(如比爾蓋茨等)就指出,未來支撐起二十一世紀的兩大技術是資訊科技和生物學技術。到今天,資訊科技已經改變了世界,但生物學技術好像還是“雷聲大雨點小”,“只聽得陣陣樓梯響,就是不見美人下樓來”。很多當年相信二十一世紀是生物學世紀、懷著宏大抱負而去大學學生物學的莘莘學子,最終發現不要說改變世界了,生物學專業簡直就是個“畢業就是失業”的大坑啊!
為什麼會這樣?
有學者認為,這不是當年(預言生物學技術是支撐起二十一世紀的核心技術)的預言本身有錯,而是因為以基因技術為代表的生物學技術帶來的衝擊實在太大,很多人認為應該慎之又慎,故而為生物學技術的發展套上了各種各樣的枷鎖,從道德倫理到法律規範的重重枷鎖,這嚴重遲滯了生物學技術的發展速度。其實,這樣的現例項子比比皆是,比如說對轉基因食品技術的巨大爭議就可謂眾人皆知,我們就不細說了。
很多學者認為,其實和轉基因技術為代表的生物學技術相比,資訊科技中的人工智慧技術對人類威脅性,很可能更大更嚴重更迫切。有句話說;“通用型的強人工智慧將會是人類最後一項發明”。當在處理資訊上,比人腦強大的多的通用型強人工智慧出現時,人類的末日鐘聲就敲響了,人類失去了全部的優勢和意義,也就該在歷史舞臺上退場、甚至是絕種了。
那麼,既然也有那麼多人擔心通用型強人工智慧的出現帶來的毀滅性衝擊,既然有無數人被像《終結者》系列電影中的場景嚇倒,為什麼這個世界還在創造發明強人工智慧的道路上飛速狂奔呢?
這裡的原因很多,其中最重要的是;這是“不得已而為之”,這是沒有辦法的事情。或者進一步講,從經濟學的層面上講,如果沒有資訊科技的飛速發展,那經濟沒有強有力的新的增長點,經濟迴圈將會被“消費天花板”給擋住,然後帶來嚴重的經濟危機。而這種經濟危機,其嚴重程度,完全可能是會引發毀滅整個現代文明的第三次世界大戰的。
或者說,假如沒有最近幾十年資訊科技的飛速發展帶來的經濟增長,如果沒有資訊科技這個經濟和社會發展引擎的牽引,現在人類的經濟迴圈早就已經陷入比引發第二次世界大戰的大蕭條還要嚴重的多的經濟深淵中去了。
這就是所謂的沒辦法。歷史的演進是有其內在邏輯的,經濟的發展是有其必然性的規律的。就像凱文凱利說的那樣,技術的發展是有其自己獨立的想法(需要),未必是人類能控制的住的。支撐二十一世紀的兩大技術中的生物學技術,已經被套上了重重枷鎖,如果再給以人工智慧為代表的資訊科技套上枷鎖,那整個人類經濟引擎就要變的乏力,甚至是熄火了!
所謂歷史和經濟發展就是“逆水行舟,不進則退”,經濟引擎如果熄火,那帶來的,恐怕也就只有第三次世界大戰了。於是,為了保證經濟迴圈不熄火,人們也就只好看著以強人工智慧為代表的資訊科技在今天這個世界上、如脫韁Mustang一般的飛速狂飆了。
好了,說了這麼多,希望我說明白了。如果你能明白我上面講的內容,那回答題主提出的問題也就很容易了。
我們直截了當的回答題主提出的問題,答案是;
恐怕不能!
人類舊有的傳統思想和道德倫理,已經遲滯了以基因技術為代表的生物學技術的發展,如果再用傳統保守的道德倫理遲滯以人工智慧為代表的資訊科技的發展,那會帶來經濟上的巨大災難。一旦第三次世界大戰因為經濟危機而爆發,那一切的一切都變成了飛灰,都毫無意義可言了。所以,沒有辦法,就算我們知道前面可能是人類的“大坑”,那也只能鼓足勇氣往前跳了!
回覆列表
倫理是人婁社會中,人與人、人與自然在一定歷史條件下和諧相處,共存共榮的原則。不管是人,還是社會生活中的各項相關事物的存在和發展都要遵守這個原則。在基因技術領域,人已經可以實現性別選擇,但嚴格受控使用。人工智慧不僅在涉及人婁情感,在毀滅性武器,以及對社會生活有重大影響的很多方面都應受到合理的限制。