回覆列表
  • 1 # 2020小何

    1.從一個高度多元化的團隊開始。

    任何AI系統的深度學習模型都將受到其背後團隊的集體經驗的限制。如果該團隊是孤立的,系統將根據高度不準確的模型做出判斷和預測。對於Adam Kalai來說,消除詞語嵌入,消除AI中的偏見就像撫養孩子一樣。無論好壞,嬰兒或人工智慧系統,都會想到你如何教它思考因此,組建一個高度多樣化的團隊來主導您的AI工作。您將更有可能更早,更準確地識別細微差別。為了減少組建團隊時的偏差,請檢查語言並刪除有偏見的措辭。

    2.讓您的多元化團隊訓練您的聊天機器人。

    與人類一樣,當機器人擁有更多資料和經驗時,他們會做出更明智的選擇。“為聊天機器人收集足夠的資料以做出正確的決定。自動化代理商應該不斷學習和適應,但只有在獲得正確資料的情況下才能做到這一點。聊天機器人透過研究以前的對話來學習,因此您的團隊應該提供您的機器人資料,教導它以您希望的方式做出響應。例如,瑞典銀行SEB甚至教會其虛擬助手Aida檢測呼叫者語音中的語氣,此時機器人知道將呼叫者傳遞給人類。

    為了完成類似的事情而不會成為偏見的犧牲品,您可能需要建立資料集,為您的機器人提供來自多個人口統計資料的示例。制定流程來檢測問題。無論您是使用自動化平臺還是手動檢視客戶對話,都可以在客戶聊天中搜索模式。在打電話詢問特定問題時,客戶是否選擇了人類代表?您的聊天機器人可能會錯誤處理或誤解某種型別的客戶問題導致某種型別客戶的疑慮。一旦您的客戶查詢中識別出共同的線索,您就可以為您的AI提供正確的課程所需的資訊。

    3.向世界展示你的AI如何思考。

    在建立人們可以信任的人工智慧系統時,透明度可能與多樣性同樣重要。目前沒有關於受AI演算法決策制約的消費者權利的法律。至少公司可以做的是與消費者完全透明為什麼做出決定。儘管存在共同的行業擔憂,但這並不意味著披露人工智慧背後的程式碼。

    只需提供系統用於做出決策的標準。例如,如果系統拒絕信用申請,請說明拒絕哪些因素以及消費者可以採取哪些措施來提高他們下次獲得資格的機會。IBM推出了一項軟體服務,可以查詢AI系統中的偏差,並確定自動決策的原因。這樣的工具可以幫助您實現透明度。人工智慧計劃的可能性是一個真正令人擔憂的問題。幸運的是,有很多方法可以擴充套件AI源資料的多樣性,並消除重大偏差。透過消除偏見,您將幫助您的公司 以及社會真正實現AI提供的好處。

  • 中秋節和大豐收的關聯?
  • 哲學啟蒙運動發生在什麼時期?當時的歷史是怎樣的?