目前在深度學習的醫療診斷應用上,以面板癌檢測和胸透影像診斷的研究較為受關注,這裡簡單介紹一下這兩個領域的進展。
2018年5月29日,一篇關於面板癌診斷的文章發表在醫療期刊《腫瘤學年鑑》(Annals of Oncology)上,這篇出自醫療界高階管理醫師的研究首次表明:深度學習卷積神經網路(CNN)在檢測面板癌方面的表現優於有經驗的面板科醫生。對比物件是來自 17 個國家的 58 位面板科醫生,其中包括 30 位專家。
這是人工智慧又一次在醫療影象識別上實現「超越人類」的水平。儘管如吳恩達這樣的著名機器學習學者領導的 AI 醫療影像研究也正在受到質疑,但隨著技術的發展,越來越多基於人工智慧的醫療成果正在出現,此類技術或許很快就可以幫助我們更好地應對疾病。
研究人員首次表明,深度學習卷積神經網路(CNN)在檢測面板癌方面的表現優於有經驗的面板科醫生。
發表在國際著名癌症期刊《腫瘤學年鑑》(Annals of Oncology)上的一項研究中,德國、美國和法國的研究人員使用 10 萬多幅惡性黑色素瘤(最致命的面板癌)和良性痣的影象訓練了一個 CNN 來識別面板癌。他們將其診斷與 58 位國際面板科醫生的診斷進行了比較,發現 CNN 比面板科醫生漏診的黑色素瘤更少,誤診良性痣的機率更低。
2017年1月25日,斯坦福大學的研究者成功實現可以診斷面板癌的演算法。該研究的相關論文《Dermatologist-level classification of skin cancer with deep neural networks》已經發表在 Nature 上。該結果已經過了 21 位認證面板科醫生的對比測試。在該論文中的最常見的和最致命的面板癌的診斷上,該演算法的表現已能媲美面板科醫生。
研究人員並沒有從頭開始構建演算法,而是從谷歌已經訓練識別了 128 萬張 1 千種類目標的演算法基礎上進行開發的。雖然谷歌這套系統是為識別貓和狗設計的,不過研究員需要它能學會區分良性脂溢性角化病(benign seborrheic keratosis)和惡性腫瘤。
這篇論文的主要聯合作者,Thrun 實驗室的研究生 Brett Kuprel 說:「現在情況是沒有巨大的面板癌資料集來訓練我們的演算法,所以我們只能自己做了,我們從網際網路收集資料,並與醫學院合作對混亂資料(標籤就含有多種語言,如德語、阿拉伯語、拉丁語等)進行良好的分類。」
儘管該演算法目前用於計算機,但團隊希望未來它能夠兼容於智慧手機,讓可靠的面板癌診斷觸手可及。
「我意識到用在智慧手機是多麼的獨特,那是我靈光乍現的一刻」Esteva 說,「每個人口袋中都有一個超級計算機,上面有大量的感測器,包括攝像頭。如果我們把它用來篩查面板癌會怎麼樣?或其他疾病呢?」
2017年11月,深度學習著名學者吳恩達和他在斯坦福大學的團隊提交的一篇新論文提出了名為 CheXNet 的胸透影像診斷技術。研究人員在論文中表示:新的技術已經在識別胸透照片中肺炎等疾病上的準確率上超越了人類專業醫師。吳恩達表示,或許放射科醫生們需要開始擔心他們的工作了。
2018年5月,吳恩達及斯坦福 ML 團隊開放一項骨骼醫療影像的競賽,它利用去年 12 月開放的 MURA 資料集嘗試在骨骼影像上達到放射科醫生的水平。此外,MURA 是最大的開放性放射影像資料集之一,它有助於診斷上肢骨骼疾病。
MURA 是最大的開放放射影像資料集之一,研究者將該資料集提供給社群來舉辦對應的競賽,因而能瞭解模型在醫學影像上能不能做得更好。
MURA 使用一個隱藏的測試資料集以官方評估模型的效能。參賽團隊可在 Codalab 上提交可執行程式碼,並在非公開的測試資料集上執行,這樣的流程基本能保證測試結果的公平性。下面地址展示了 MURA 的提交與評估過程,只要模型經過官方的評估,測試分數就會顯示在排行榜中。
目前在深度學習的醫療診斷應用上,以面板癌檢測和胸透影像診斷的研究較為受關注,這裡簡單介紹一下這兩個領域的進展。
面板癌檢測2018年5月29日,一篇關於面板癌診斷的文章發表在醫療期刊《腫瘤學年鑑》(Annals of Oncology)上,這篇出自醫療界高階管理醫師的研究首次表明:深度學習卷積神經網路(CNN)在檢測面板癌方面的表現優於有經驗的面板科醫生。對比物件是來自 17 個國家的 58 位面板科醫生,其中包括 30 位專家。
這是人工智慧又一次在醫療影象識別上實現「超越人類」的水平。儘管如吳恩達這樣的著名機器學習學者領導的 AI 醫療影像研究也正在受到質疑,但隨著技術的發展,越來越多基於人工智慧的醫療成果正在出現,此類技術或許很快就可以幫助我們更好地應對疾病。
研究人員首次表明,深度學習卷積神經網路(CNN)在檢測面板癌方面的表現優於有經驗的面板科醫生。
發表在國際著名癌症期刊《腫瘤學年鑑》(Annals of Oncology)上的一項研究中,德國、美國和法國的研究人員使用 10 萬多幅惡性黑色素瘤(最致命的面板癌)和良性痣的影象訓練了一個 CNN 來識別面板癌。他們將其診斷與 58 位國際面板科醫生的診斷進行了比較,發現 CNN 比面板科醫生漏診的黑色素瘤更少,誤診良性痣的機率更低。
2017年1月25日,斯坦福大學的研究者成功實現可以診斷面板癌的演算法。該研究的相關論文《Dermatologist-level classification of skin cancer with deep neural networks》已經發表在 Nature 上。該結果已經過了 21 位認證面板科醫生的對比測試。在該論文中的最常見的和最致命的面板癌的診斷上,該演算法的表現已能媲美面板科醫生。
研究人員並沒有從頭開始構建演算法,而是從谷歌已經訓練識別了 128 萬張 1 千種類目標的演算法基礎上進行開發的。雖然谷歌這套系統是為識別貓和狗設計的,不過研究員需要它能學會區分良性脂溢性角化病(benign seborrheic keratosis)和惡性腫瘤。
這篇論文的主要聯合作者,Thrun 實驗室的研究生 Brett Kuprel 說:「現在情況是沒有巨大的面板癌資料集來訓練我們的演算法,所以我們只能自己做了,我們從網際網路收集資料,並與醫學院合作對混亂資料(標籤就含有多種語言,如德語、阿拉伯語、拉丁語等)進行良好的分類。」
儘管該演算法目前用於計算機,但團隊希望未來它能夠兼容於智慧手機,讓可靠的面板癌診斷觸手可及。
「我意識到用在智慧手機是多麼的獨特,那是我靈光乍現的一刻」Esteva 說,「每個人口袋中都有一個超級計算機,上面有大量的感測器,包括攝像頭。如果我們把它用來篩查面板癌會怎麼樣?或其他疾病呢?」
胸透影像診斷2017年11月,深度學習著名學者吳恩達和他在斯坦福大學的團隊提交的一篇新論文提出了名為 CheXNet 的胸透影像診斷技術。研究人員在論文中表示:新的技術已經在識別胸透照片中肺炎等疾病上的準確率上超越了人類專業醫師。吳恩達表示,或許放射科醫生們需要開始擔心他們的工作了。
2018年5月,吳恩達及斯坦福 ML 團隊開放一項骨骼醫療影像的競賽,它利用去年 12 月開放的 MURA 資料集嘗試在骨骼影像上達到放射科醫生的水平。此外,MURA 是最大的開放性放射影像資料集之一,它有助於診斷上肢骨骼疾病。
MURA 是最大的開放放射影像資料集之一,研究者將該資料集提供給社群來舉辦對應的競賽,因而能瞭解模型在醫學影像上能不能做得更好。
MURA 使用一個隱藏的測試資料集以官方評估模型的效能。參賽團隊可在 Codalab 上提交可執行程式碼,並在非公開的測試資料集上執行,這樣的流程基本能保證測試結果的公平性。下面地址展示了 MURA 的提交與評估過程,只要模型經過官方的評估,測試分數就會顯示在排行榜中。