首頁>科技>

說起AI威脅論,不由想到霍金和馬斯克。

此前,霍金曾表示,人工智慧的崛起可能是人類文明的終結,霍金還呼籲人們必須建立有效機制儘早識別威脅所在,防止人工智慧對人類帶來的威脅進一步上升。

除此之外,霍金還將人工智慧的威脅分為兩種,分別是短期和長期兩種。短期威脅包括自動駕駛、智慧性自主武器,以及隱私問題;長期擔憂主要是人工智慧系統失控帶來的風險,如人工智慧系統可能不聽人類指揮。

值得一提的是,現如今霍金所提到了短期威脅基本已經“實現”,但是並不普及。

而關於馬斯克,他曾表示,AI曾會在未來取代人類,這也是為什麼他致力專注於腦機介面方面,其中,他認為利用某些連線到人類大腦的高頻寬介面,有助於實現人類和機器智慧的共生系統,並可以解決控制問題和實用問題。

在研究的過程中,研究團隊還曾構思了一種論遏制演算法,其主要的目的是為了模擬AI的行為被認為是有害的情況下,人們能夠進行阻止,以保證傷害到人類。

但是結果並不理想,分析中顯示,在目前的計算正規化中,這種演算法是無法建立的。

現如今社會的發展十分的迅速,AI的到來有利有弊,而無論是利大於弊或者是弊大於利,我們都要懷著正確的眼光去看待,而不能一昧的只是看到AI的某一點。

但是不可否認的是,當一項技術過於的的成熟再者加上了主觀意識,確實會按照什麼樣的事態發展是人們很難預料得到的。

最後,關於這件事情,你還有什麼看法?

12
最新評論
  • 整治雙十一購物亂象,國家再次出手!該跟這些套路說再見了
  • 開發APP的優勢與劣勢