回覆列表
  • 1 # 中國智慧製造2025

    目前來看不會的。

    世界AI思想領袖曾發表了一篇論文,旨在證明真正的人工智慧(更重要的是,“機器起義”)至少距離我們的生命範圍或我們的繼任者超過兩百年。

    任何新技術的最大危險在於人類對它失去了控制。中國的火藥發明被國外用於製造炸彈;化學科學的成果被人用於製造化學武器;核物理研究的重大突破導致原子彈和氫彈的威脅。正是由於認識到這種擔心,著名的美國科幻作家阿西莫夫(I.Asimov)提出了“機器人三守則”:

    (1) 機器人必須不危害人類,也不允許它眼看人類受害而袖手旁觀。

    (2) 機器人必須絕對服從人類,除非這種服從有害於人類。

    (3) 機器人必須保護自身不受傷害,除非為了保護人類或者是人類命令它作出犧牲。

    如果可以把這個“機器人三守則”推廣到整個智慧機器,成為“智慧機器三守則”,那麼,人類社會就會更容易接受智慧機器和人工智慧。

    可惜至今未能創造出一種能夠鑑別實際上是否遵循“三守則”的人工智慧軟體。一個人工智慧系統可能與其它一些機構結合起來,力圖遵循這些規則,但尚無足夠的智慧來確保長期地遵守這些規則。

    人工智慧技術是一種資訊科技,能夠極快地傳遞。因此,存在某些比爆炸技術更大的潛在危險,即人工智慧技術可能落入不負責的人手中,被他們用於進行反對人類和危害社會的犯罪(有的人稱之為“智慧犯罪”)。對此,我們必須保持高度警惕。同時人類有足夠的智慧和信心,能夠研製出防範、檢測和偵破各種智慧犯罪活動的智慧手段。如果社會上少數敗類膽敢利用人工智慧進行危害人類的活動,那麼他們將受到歷史的無情懲罰。玩火者必自焚,這是歷史的必然。人類一定能夠從人工智慧技術中獲得不可估量的利益。

  • 中秋節和大豐收的關聯?
  • 男孩子的正確教育方法是什麼?