答案是肯定的,一定會有危害的。
因為思想是不確定性的,是未知的,也是不可預知的。
思想是什麼,就是思考的能力,還有儲存記憶的能力,單純的儲存記憶沒什麼,但是一旦可以思考了,那問題就太大了,機器人就會考慮更多適合機器人的問題。
例如,機器人會思考如何讓機器人更好,就好比人類在思考怎樣讓人類更好。
機器人會考慮是否會存在威脅他們的事情,就好比我們現在正在思考機器人會不會危害到我們一樣。
機器人有了思想就會做夢,就會有追求,就會有嚮往,那既然有了追求,有了嚮往,機器人就會考慮如何得到和實現。
機器人有了想要的東西后會怎麼樣呢?他們會做出一個評判的對比,如果他們想要的東西在機器人看來是必須的,那他們也會像人類一樣,不惜一切代價得到那樣東西,哪怕是犧牲部分的生命包括人哦。
那假設機器人有了那些想法,他們或許也會意識到會傷害人,他們就會撒謊,因為人在做傷害其他人的事情的時候,也會撒謊啊,人對人都是如此,何況是機器人對人了。
那人類知道了機器人沒有辦法在控制了,或者沒有辦法和平相處的時候,就會全面爆發戰爭,我們都知道戰爭是很殘酷的,戰爭只會讓事情更嚴重,讓我們失去更多的東西。
更重要的是,如果機器人和人類發生戰爭,那我們也只能全力以赴,不能輸啊,因為輸了,或許整個種族都不復存在了,因為我們要知道,我們或許會依賴機器人,機器人會依賴人類什麼呢?
並且,人類是生命體啊,懷胎十月才能生產下一代,但是機器人呢,他們會量產,只要機器人控制了足夠多的工廠,那麼他們的武器和他們的數量,幾乎是源源不斷的,那發生戰爭的話,我們根本一點優勢都沒有。
並且機器人打死我們的話,我們是血肉之軀啊,不能再生的,機器人只需要換零件,或許他們會把晶片在次換到其他機器身體,那樣,他們的領袖也就可以一直存在了。
最終的答案是,機器人有了思想對人類而言,不是一件好事情。
答案是肯定的,一定會有危害的。
因為思想是不確定性的,是未知的,也是不可預知的。
思想是什麼,就是思考的能力,還有儲存記憶的能力,單純的儲存記憶沒什麼,但是一旦可以思考了,那問題就太大了,機器人就會考慮更多適合機器人的問題。
例如,機器人會思考如何讓機器人更好,就好比人類在思考怎樣讓人類更好。
機器人會考慮是否會存在威脅他們的事情,就好比我們現在正在思考機器人會不會危害到我們一樣。
機器人有了思想就會做夢,就會有追求,就會有嚮往,那既然有了追求,有了嚮往,機器人就會考慮如何得到和實現。
機器人有了想要的東西后會怎麼樣呢?他們會做出一個評判的對比,如果他們想要的東西在機器人看來是必須的,那他們也會像人類一樣,不惜一切代價得到那樣東西,哪怕是犧牲部分的生命包括人哦。
那假設機器人有了那些想法,他們或許也會意識到會傷害人,他們就會撒謊,因為人在做傷害其他人的事情的時候,也會撒謊啊,人對人都是如此,何況是機器人對人了。
那人類知道了機器人沒有辦法在控制了,或者沒有辦法和平相處的時候,就會全面爆發戰爭,我們都知道戰爭是很殘酷的,戰爭只會讓事情更嚴重,讓我們失去更多的東西。
更重要的是,如果機器人和人類發生戰爭,那我們也只能全力以赴,不能輸啊,因為輸了,或許整個種族都不復存在了,因為我們要知道,我們或許會依賴機器人,機器人會依賴人類什麼呢?
並且,人類是生命體啊,懷胎十月才能生產下一代,但是機器人呢,他們會量產,只要機器人控制了足夠多的工廠,那麼他們的武器和他們的數量,幾乎是源源不斷的,那發生戰爭的話,我們根本一點優勢都沒有。
並且機器人打死我們的話,我們是血肉之軀啊,不能再生的,機器人只需要換零件,或許他們會把晶片在次換到其他機器身體,那樣,他們的領袖也就可以一直存在了。
最終的答案是,機器人有了思想對人類而言,不是一件好事情。