回覆列表
  • 1 # 糖尿病便秘腸炎管理

    Octavia是一種用於海軍艦艇滅火的擬人化機器人,她已經習得了多種面部表情。

    當她關機時,看起來像是一個人造娃娃。她擁有一張光滑的白臉和一個翹鼻子。她的塑膠眉毛像兩葉小小的傾覆的獨木舟,均勻地分佈在她的前額上。

    然而,當她開機時,眼皮一睜開,就開始表現出情緒。她可以點頭來表示理解;睜大眼睛、抬起雙眉來表示驚訝;或者將頭偏向一邊,嘴巴擰結,來表示困惑。她甚至可以做出漫畫的效果,勾起一條眉毛,眯起另一個眼睛,同時將金屬製的手指握在一起,就像要復仇一樣。

    但是,Octavia的多種面部表情並不是她最令人印象深刻的特點。真正令人驚奇的是,她能夠對人類互動做出準確的情感迴應。比如,當她看到隊友時,她會看起來很高興。當隊友給她下了一個意料之外的命令時,她看起來會很驚訝。如果有人說了一些她無法理解的話語,她看起來會很困惑。

    她之所以能夠表現出適當的情感影響,是因為她能夠處理大量有關環境的資訊。她可以看、聽和觸控。她使用內建在眼睛中的兩個相機來拍攝周遭環境的視覺庫存,並對面部特徵、膚色和服裝等特徵進行分析。她可以使用4個麥克風和一個名為Sphinx的語音識別程式來檢測人們的聲音。她可以透過觸控,利用手指將物體操作成各種可能的位置和形狀,來學習識別25種不同的物體。這些感知技能構成了她“具象認知架構”的一部分,這種架構讓她能夠以類似於人的方式來思考和採取行動。

    這也許會讓人感到興奮,但是這並不一定令人感到震驚。我們已經習慣於機器像人一樣的想法了。18世紀,法華人創造的自動機器可以跳舞、計時、打鼓、奏揚琴或者彈鋼琴。作為一個在上世紀80年代長大的孩子,因為某些原因,我竟會羨慕一個能夠尿在褲子上的娃娃。

    我們甚至已經習慣了機器思維提醒我們作為人類的想法。長期以來,我們一直認為人類智慧更高一籌的事物都已經被計算器所超越,比如國際象棋或者作詩。

    然而,Octavia的行為似乎更進了一步。這意味著,除了會按我們的思維思考之外,她也能夠感知到人類的情感。

    不過根據Navy AI中心智慧系統部門的負責人Gregory Trafton的介紹,事實並非如此。Octavia的情感影響只不過是為了表明自己的思維,便於人們與之互動。但是思維和感知的界限是模糊的。正如Trafton所說的那樣,人們的思維和情感是不同的,但卻可以相互影響。如果真是這樣,那麼隨著智慧機器的興起,Octavia的思維和理性認知能力將會引起更大的問題。機器會在什麼時間點能夠聰明到產生感知?而我們又該如何發現呢?

    個性化的感覺

    Octavia經過心理學的設計,從而可以預見她的人類隊友的精神狀態。她瞭解人們存在潛在的信念或意圖衝突。當Octavia被下達了不符合預期的命令時,她會執行模擬來確定隊友的真實想法及其原因。她透過微調引數,找到一個能夠達到目標的模型。當她側頭皺眉時,就表示正在執行這些模擬,試圖更好的理解隊友的想法。

    Octavia並沒有經過情感模型設計,她的心理學是一種認知模式,但是從功能上來看,很像人類所擁有的同情。

    其他機器人制造商傾向於迴避機器的情感智慧問題。以軟銀的Robotics為例,這家售賣人類伴侶類人機器人Pepper的公司宣稱,Pepper可以感知人類的情感,它會透過與你的互動,更多的瞭解你的口味、習慣。雖然Pepper可能擁有識別人類情感的能力,或者會用快樂的笑容或悲傷的表情來回應,但是沒有人知道它是否真的可以感知這些情感。

    對於機器人制造商來說,需要達到一個什麼樣的標準才能宣稱自己的機器人可以真正的感知人類情感呢?首先,截至目前,我們對感知情感並不能做到完全瞭解。

    近年來,心理學和神經科學的革命已經從根本上重新定義了情感這個概念,使得我們更難以確定和形容感知情感。根據東北大學心理學教授Lisa Feldman Barrett的說法,我們的情感會根據我們所在的文化環境而產生很大的不同。即使在不同環境下,個人的差異也很大。事實上,雖然我們會與大多數人共同分享一些通用的感覺(比如快樂、不愉快等),但是我們的情感往往會更加敏銳和特殊,並不總是遵循特定的規範。以恐懼為例,恐懼是一個基於文化認同的概念,但是它卻以不同的方式在我們身體中體現。它由不同刺激引起,會在我們的大腦中呈現出不同的表現,並以不同的方式表達在我們的臉上。大腦中並沒有單一的“恐懼中心”或“恐懼環路”,所以也不存在特定的恐懼面部表情。我們會根據不同的情況,以完全不同的方式來處理和表達我們的恐懼。只有在我們與別人互動時,才會學習識別或定義所謂的“恐懼”。

    優秀計程車兵

    對於透過程式設計賦予機器人情感這一問題,社會一直有所爭議。這些問題在軍事機器人的開發上更加明顯。

    今年,在由陸軍發起的一個“Mad Scientist Initiative”會議上,陸軍訓練司令部的副指揮官Kevin Mangum中將指出,像Octavia這樣的機器人將會是完全自動化的。Mangum說:“當我們看待這個日益複雜的世界時,毫無疑問,機器人、自動化系統和人工智慧將會扮演重要的角色。”《2017年陸軍機器人和自動化系統戰略》預測:到2040年,自動化系統將全部整合,逐步取代現今的炸彈處理機器人和其他由人類遠端操作的機器。

    當這些機器人可以按照自己的想法進行行動時,它們是否應該像Octavia一樣被設計為表現人類情感呢?還是真正擁有人類情感?如果我們把它們送到戰鬥中,它們是否應該具備思考和感知的能力?

    從一方面來說,當然不是。如果我們所設計的機器人是用來應對危險情況的,那麼讓它們感知到恐怖、創傷和痛苦是很不人道的。

    但是從另一方面來說,如果情感和智慧會相互影響,那麼我們能夠確定一個沒有情感的機器人會成為一個優秀士兵嗎?如果情感的缺乏導致了愚蠢的決定、不必要的風險或過分殘忍的報復呢?

    如果情感和智慧具有不可分割的聯絡,那麼一個自動化機器人應該擁有什麼程度的情感,也就是程式設計師不能控制的程度。

    情感附屬

    還有一個問題也很重要,那就是這些機器人可能會影響它們的人類隊友。

    截至2010年,美國陸軍已經部署了約3000個小型戰術機器人,主要用來應對戰爭中越來越多的簡易爆炸裝置。這些機器人代替人類士兵行駛在暴露的道路上,潛入黑暗的洞穴中,透過狹窄的門縫檢測和失效不可預測的簡易爆炸裝置。

    該機器人戰隊主要由iRobot的PackBot和QinetiQ North America的Talon組成。它們看起來就像瓦力一樣,四四方方的金屬身軀平衡在橡膠面上,使它們能夠穿越岩石地形、攀登樓梯和進入陰暗的走廊。裝配了攝像機的手臂可以對周圍環境進行探查,並可以用爪子修補爆炸裝置。

    它們是非常有用的工具,但並不是完全自動化的。它們需要士兵遠端操作帶有操縱桿的裝置。雖然都是AI產品,但是PackBot和iRobot其他知名產品比起來並沒有那麼先進。

    而且,雖然這些機器人還不具有情感表達能力,但是人類士兵也已經和它們產生了聯絡。Julie Carpenter在《軍事化空間中的文化和人機互動》中表示,這些關係是複雜的,既存在有益的一面,也存在痛苦的一面。

    當Carpenter讓一名軍人描述他對一個被毀壞的機器人的感受時,他回答道:“這就像朋友受傷了,或者看到一個隊友被踢出團隊一樣。雖然知道這只是機器人,但是仍然會對它感覺到一些什麼。”

    另一名軍人將他的機器人比作寵物狗:“你照顧這個機器人就像照顧你的團隊成員一樣。你會給它洗澡,會確保電池一直充電。如果沒有在使用它,你會小心翼翼的收好,因為你知道如果機器人發生了什麼事情,下一個就輪到你了,沒有人喜歡這樣的事情。”

    這些軍人都強調機器人只是工具,並不是擁有情感的生物。但是他們仍然會給它們起名字,並在晚上的時候小心翼翼的收好。他們開玩笑的說著這種衝動,但是這些笑話中就有那麼一點令人不安的成分。Carpenter採訪的這些軍人似乎覺得卡在了兩種感覺之間:他們明白關心一個沒有情感的機器人是很荒謬的,但是他們仍然產生了一定的情感聯絡。

    當Carpenter發表了自己的採訪後,她收到了更多與機器人產生真正情感聯絡的軍人來信。一名曾經負責處理爆炸物的技術員寫道:

    “作為一名擁有8年服務年齡、經歷了三次部署的EOD技術員,我發現你的研究非常有趣。我完全同意你採訪中的技術員的說法,機器人只是工具,因此我會將它們送到任何情況中,無論是否存在危險。”

    “但是2006年,在伊拉克的一次任務期間,我失去了一個被我命名為“Stacy 4”的機器人。她是一個很出色的機器人,從來沒有帶來任何問題,總是表現很出色。Stacy 4被完全損毀了,我只能恢復出非常小的底盤。伴隨著Stacy 4被損毀的是我因此產生的憤怒感,我甚至因為失去她而大哭了一場,就好像失去了家庭成員一樣。那天晚上我打電話給妻子告訴了她這件事。我知道這聽起來很愚蠢,但是我非常討厭這樣想。我知道我們所使用的機器人只是機器而已,即使知道結果,我仍然會再次做出相同的決定。我珍視人類的生命。我珍視與真人的關係。但是我可以告訴你,我的確很想念Stacy 4,她是一個很出色的機器人。”

    士兵們對沒有情感的機器人也產生了一定的情感聯絡,想像一下,如果部署的機器人是像Octavia這樣的,她的人類隊友會有什麼樣的說法?

    在關於是否給予機器人感知的倫理對話中,我們傾向於關注這種技術創新對機器人本身的影響。像《銀翼殺手》和《西部世界》這樣的電影和電視節目,一直在渲染人類會受到情感機器人的傷害。但是我們也需要反向思考一下,將與之擁有情感聯絡的機器人送入危險情況,會對這些人產生什麼樣的創傷。

    更為複雜的是,如果像Octavia這樣的機器人最終能夠感知到人類的情感,那麼這些情感僅僅只是認知架構的結果嗎?如果和我們的情感一樣,那麼它們會不會在與隊友的互動中發生演變?

    比如,如果她的人類隊友將她送入火場,或者獨自行駛在路上掃描爆炸裝置,她的情感會和一個被庇護的機器人有很大的不同。無論她最初設定的情感表達是什麼,如果她一直處於這種不人道的情境中,她的情感可能並不會像人類一樣。

  • 2 # 航天小箭

    先回答:不喜歡。

    人生樂趣,吃喝玩樂

    1)吃喝是排第一第二的

    充電有樂趣麼,換個人打營養液維生其實是一樣的,這樣的生活過於無趣。

    2)人類是碳基生物,目前還沒有充電機制,難道要改造成機器人

    如果改造到了充電維生的地步,估計也就不是人類了。

  • 中秋節和大豐收的關聯?
  • 一個喜歡探索宇宙奧秘和道家思想的人,為人處事有什麼區別?