摘要:過去的測試包括,在皮膚病診斷中的表現(xiàn)大致上和人類專家持平。和其同事也在皮膚癌等其他皮膚病上測試了深度學(xué)習(xí)。使用數(shù)據(jù)集進(jìn)行驗證時,基底細(xì)胞癌診斷的敏感度是。
人工智能目前在與專業(yè)醫(yī)生的能力對比上還罕有勝跡。但深度神經(jīng)網(wǎng)絡(luò)方法最近已經(jīng)可以在灰指甲這一真菌疾病的診斷上擊敗 42 名皮膚科專家了——這種疾病每年困擾著 3500 萬美國人。
人工智能在醫(yī)療領(lǐng)域的這一巨大成功很大程度上得歸功于韓國研究者提出的包含了 50,000 張手指甲與腳趾甲圖片組成的龐大數(shù)據(jù)集。它可以用于訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)識別灰指甲——一種可使指甲變色和變脆的常見真菌感染——為深度學(xué)習(xí)模型帶來超越醫(yī)學(xué)專家的強(qiáng)大優(yōu)勢。
「這項研究首次展示了 AI 可以超越人類專家,」韓國首爾第一皮膚病醫(yī)院的皮膚病醫(yī)生和臨床醫(yī)生 Seung Seog Han 說?!改壳盀橹?,在很多研究中,AI 在糖尿病視網(wǎng)膜病、皮膚癌的診斷和肺部 X 射線解讀的表現(xiàn)都達(dá)到了和人類專家相近的程度?!?/p>
過去的測試包括「AI versus doctors」,AI 在皮膚病診斷中的表現(xiàn)大致上和人類專家持平。但在這項研究中,42 個人類專家僅有 1 個略微在三個試驗之一的特定測試場景中超過了深度神經(jīng)網(wǎng)絡(luò)。該研究發(fā)表在 2018 年 1 月 19 日的網(wǎng)絡(luò)雜志 PLOS ONE 上。
尤其是,不同于簡單案例,深度神經(jīng)網(wǎng)絡(luò)在極度困難的案例上表現(xiàn)得比皮膚病專家好得多,Han 介紹道。除了 Han 以外,該團(tuán)隊的主要研究者還包括韓國翰林大學(xué)的皮膚病學(xué)教授 Gyeong Hun Park,以及韓國蔚山大學(xué)的皮膚病學(xué)教授 Sung Eun Chang。
Han 作為醫(yī)生的日常工作包括治療多種類型的皮膚疾病。但他也學(xué)習(xí)了幾種計算機(jī)編程語言例如 C++和 Python,并持續(xù)了好幾年。當(dāng)他看到 AlphaGo 擊敗較高級人類圍棋選手李世石的新聞之后,對深度學(xué)習(xí)產(chǎn)生了興趣。
深度學(xué)習(xí)算法通常能解決在大數(shù)據(jù)中檢測模式的專業(yè)性任務(wù),而人類難以把握大數(shù)據(jù)的規(guī)律。在這個案例中,韓國的研究者發(fā)現(xiàn)可以用微軟研究院開發(fā)的深度學(xué)習(xí)算法幫助醫(yī)生從數(shù)字照片中識別可能的灰指甲感染病例。
但所有的深度學(xué)習(xí)模型都需要大量的數(shù)據(jù)來訓(xùn)練 AI 識別相關(guān)的模式。收集和灰指甲感染相關(guān)的有用照片是一項巨大的挑戰(zhàn),因為通常這類照片并沒有標(biāo)準(zhǔn)的格式。很多照片都從不同的角度拍攝,并會同時展示健康的指甲和被感染的指甲。此外,由于深度學(xué)習(xí)算法的技術(shù)局限性,所有的照片都需要轉(zhuǎn)換成 224×224 像素,這使得很多照片變得無法識別。
Han 和他的同事們訓(xùn)練了一個基于 Faster R-CNN 的目標(biāo)檢測算法模型來識別和裁剪照片,從而使照片僅包括感染的趾甲和指甲,然后將照片放大,以適用于深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。大多數(shù)的照片來自 MedicalPhoto,這是一個皮膚病臨床照片管理程序,由 Han 在 2007 年開發(fā)。
然而,Han 不得不收集由 Faster R-CNN 裁剪得到的 10 萬張照片,進(jìn)行人工讀取并對每張照片標(biāo)記兩次,以確保訓(xùn)練數(shù)據(jù)的準(zhǔn)確性:不準(zhǔn)確或不充分的趾甲/指甲照片被剔除。這項工作花費(fèi)了他大約 550 個小時,總共超過了 70 天,即使他堅持每天工作數(shù)小時,并以 10 秒每張的速度處理照片。
該數(shù)據(jù)集幫助訓(xùn)練了用于識別病癥的卷積神經(jīng)網(wǎng)絡(luò)——微軟的 ResNet-152 和牛津大學(xué)的 VGG-19 模型,以執(zhí)行識別指甲真菌感染可能病例的工作。這種深度學(xué)習(xí)方法表現(xiàn)優(yōu)于 42 位皮膚科專家組成的小組——其中包括 16 名教授、18 名臨床醫(yī)生和 8 名住院醫(yī)師。
研究者還展示了在額外測試中,深度學(xué)習(xí)方法通常優(yōu)于較好的五位皮膚科專家。另外,研究者發(fā)現(xiàn) AI 的診斷評估比一般醫(yī)生、醫(yī)學(xué)生、護(hù)士和非醫(yī)務(wù)人員要好。
研究團(tuán)隊已經(jīng)放出了一個 demo 做演示:
試用網(wǎng)址:http://nail.medicalphoto.org
安卓 APP:https://play.google.com/store/apps/details?id=com.phonegap.onychomycosis_en
通過用網(wǎng)站和 APP 收集數(shù)據(jù),研究人員希望發(fā)現(xiàn)當(dāng) AI 用于醫(yī)療實(shí)踐時潛在的問題。
Han 和其同事也在皮膚癌等其他皮膚病上測試了深度學(xué)習(xí)。相關(guān)論文在 2 月 8 日發(fā)表在了在線期刊《Journal of Investigative Dermatology》上(見文末)。
該研究表明,人工智能能夠在極為依賴臨床攝影的遠(yuǎn)距離醫(yī)療(telemedicine)中極為有幫助,例如診斷灰指甲等。然而,目前仍然需要人類皮膚科醫(yī)生使用病人的一般病史、足臭等大量因素來確診。極少數(shù)醫(yī)生對只基于圖片做診斷感到合適。
Han 和他的同事認(rèn)為自己的研究對普通從業(yè)者非常有幫助,他們經(jīng)常見到病人抱怨皮膚和指甲病狀。Han 說,「AI 診斷要比普通臨床診斷更為準(zhǔn)確,我認(rèn)為它對普通從業(yè)者確定甲癬的治療方向有所幫助?!?/p>
論文:Classification of the clinical images for benign and malignant cutaneous tumors using a deep learning algorithm
摘要:我們測試使用深度學(xué)習(xí)算法對 12 種皮膚病的臨床照片進(jìn)行分類,包括基底細(xì)胞癌、鱗狀細(xì)胞癌、上皮內(nèi)癌、光化性角化病、脂溢性角化病、惡性黑色素瘤、黑素細(xì)胞痣、雀斑樣痣、化膿性肉芽腫、血管瘤、皮膚纖維瘤、疣。使用來自 Asan 數(shù)據(jù)集、MED-NODE 數(shù)據(jù)集和 atlas site images 中的訓(xùn)練集圖像(共 20826 張)對卷積神經(jīng)網(wǎng)絡(luò)(Microsoft ResNet-152 模型)進(jìn)行調(diào)整。然后使用 Asan、Hallym 和 Edinburgh 數(shù)據(jù)集的測試集圖像驗證訓(xùn)練后的模型。使用 Asan 數(shù)據(jù)集進(jìn)行驗證時,基地細(xì)胞癌、鱗狀細(xì)胞癌、上皮內(nèi)癌、黑色素瘤診斷的曲線下面積(AUC)分別是 0.96 ± 0.01、0.83 ± 0.01、0.82 ± 0.02、0.96 ± 0.00。使用 Edinburgh 數(shù)據(jù)集進(jìn)行驗證時,對應(yīng)疾病的曲線下面積分別是 0.90 ± 0.01、0.91 ± 0.01、0.83 ± 0.01、0.88 ± 0.01。使用 Hallym 數(shù)據(jù)集進(jìn)行驗證時,基底細(xì)胞癌診斷的敏感度是 87.1% ± 6.0%。使用 480 張 Asan 和 Edinburgh 圖像接受測試的算法性能可與 16 位皮膚科醫(yī)生媲美。為了提高 CNN 的性能,我們還應(yīng)該收集涉及年齡范圍更大、種族更廣泛的圖像。
原文鏈接:https://spectrum.ieee.org/the-human-os/robotics/artificial-intelligence/ai-beats-dermatologists-in-diagnosing-nail-fungus
歡迎加入本站公開興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報表系統(tǒng)等全方位知識
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/4735.html
摘要:然而,幸運(yùn)的是,目前更為成功的目標(biāo)檢測方法是圖像分類模型的擴(kuò)展。幾個月前,發(fā)布了一個用于的新的目標(biāo)檢測。 隨著自動駕駛汽車、智能視頻監(jiān)控、人臉檢測和各種人員計數(shù)應(yīng)用的興起,快速和準(zhǔn)確的目標(biāo)檢測系統(tǒng)也應(yīng)運(yùn)而生。這些系統(tǒng)不僅能夠?qū)D像中的每個目標(biāo)進(jìn)行識別和分類,而且通過在其周圍畫出適當(dāng)?shù)倪吔鐏韺ζ溥M(jìn)行局部化(localizing)。這使得目標(biāo)檢測相較于傳統(tǒng)的計算機(jī)視覺前身——圖像分類來說更加困難...
摘要:從到,計算機(jī)視覺領(lǐng)域和卷積神經(jīng)網(wǎng)絡(luò)每一次發(fā)展,都伴隨著代表性架構(gòu)取得歷史性的成績。在這篇文章中,我們將總結(jié)計算機(jī)視覺和卷積神經(jīng)網(wǎng)絡(luò)領(lǐng)域的重要進(jìn)展,重點(diǎn)介紹過去年發(fā)表的重要論文并討論它們?yōu)槭裁粗匾?。這個表現(xiàn)不用說震驚了整個計算機(jī)視覺界。 從AlexNet到ResNet,計算機(jī)視覺領(lǐng)域和卷積神經(jīng)網(wǎng)絡(luò)(CNN)每一次發(fā)展,都伴隨著代表性架構(gòu)取得歷史性的成績。作者回顧計算機(jī)視覺和CNN過去5年,總結(jié)...
摘要:目前目標(biāo)檢測領(lǐng)域的深度學(xué)習(xí)方法主要分為兩類的目標(biāo)檢測算法的目標(biāo)檢測算法。原來多數(shù)的目標(biāo)檢測算法都是只采用深層特征做預(yù)測,低層的特征語義信息比較少,但是目標(biāo)位置準(zhǔn)確高層的特征語義信息比較豐富,但是目標(biāo)位置比較粗略。 目前目標(biāo)檢測領(lǐng)域的深度學(xué)習(xí)方法主要分為兩類:two stage的目標(biāo)檢測算法;one stage的目標(biāo)檢測算法。前者是先由算法生成一系列作為樣本的候選框,再通過卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行樣本...
摘要:這一切始于年的一篇論文,其使用了稱為的算法用來提取感興趣候選區(qū)域,并用一個標(biāo)準(zhǔn)的卷積神經(jīng)網(wǎng)絡(luò)去分類和調(diào)整這些區(qū)域。 本文詳細(xì)解釋了 Faster R-CNN 的網(wǎng)絡(luò)架構(gòu)和工作流,一步步帶領(lǐng)讀者理解目標(biāo)檢測的工作原理,作者本人也提供了 Luminoth 實(shí)現(xiàn),供大家參考。Luminoth 實(shí)現(xiàn):https://github.com/tryolabs/luminoth/tree/master/l...
摘要:在本次競賽中,南京信息工程大學(xué)和帝國理工學(xué)院的團(tuán)隊獲得了目標(biāo)檢測的最優(yōu)成績,最優(yōu)檢測目標(biāo)數(shù)量為平均較精確率為。最后在視頻目標(biāo)檢測任務(wù)中,帝國理工大學(xué)和悉尼大學(xué)所組成的團(tuán)隊取得了較佳表現(xiàn)。 在本次 ImageNet 競賽中,南京信息工程大學(xué)和帝國理工學(xué)院的團(tuán)隊 BDAT 獲得了目標(biāo)檢測的最優(yōu)成績,最優(yōu)檢測目標(biāo)數(shù)量為 85、平均較精確率為 0.732227。而在目標(biāo)定位任務(wù)中Momenta和牛津...
閱讀 2063·2019-08-30 15:52
閱讀 2452·2019-08-29 18:37
閱讀 807·2019-08-29 12:33
閱讀 2852·2019-08-29 11:04
閱讀 1549·2019-08-27 10:57
閱讀 2105·2019-08-26 13:38
閱讀 2774·2019-08-26 12:25
閱讀 2460·2019-08-26 12:23