欧美激情一区二区三区在线-欧美激情一区二区三区在线播放-欧美激情一区二区亚洲专区-欧美激情在线播放一区二区三区-欧美激情在线观看一区二区三区

創澤機器人
CHUANGZE ROBOT
當前位置:首頁 > 新聞資訊 > 機器人開發 > 深度學習在術前手術規劃中的應用

深度學習在術前手術規劃中的應用

來源:--     編輯:創澤   時間:2020/5/6   主題:其他 [加盟]

外科手術的進步對急性和慢性疾病的管理,延長壽命和不斷擴大生存范圍都產生了重大影響。如圖1所示,這些進步得益于診斷,成像和外科器械的持續技術發展。這些技術中,深度學習對推動術前手術規劃尤其重要。手術規劃中要根據現有的醫療記錄來計劃手術程序,而成像對于手術的成功至關重要。在現有的成像方式中,X射線,CT,超聲和MRI是實際中最常用的方式。基于醫學成像的常規任務包括解剖學分類,檢測,分割和配準。

圖1:概述了流行的AI技術,以及在術前規劃,術中指導和外科手術機器人學中使用的AI的關鍵要求,挑戰和子區域。

1、分類

分類輸出輸入的診斷值,該輸入是單個或一組醫學圖像或器官或病變體圖像。除了傳統的機器學習和圖像分析技術,基于深度學習的方法正在興起[1]。對于后者,用于分類的網絡架構由用于從輸入層提取信息的卷積層和用于回歸診斷值的完全連接層組成。

例如,有人提出了使用GoogleInception和ResNet架構的分類管道來細分肺癌,膀胱癌和乳腺癌的類型[2]。Chilamkurthy等證明深度學習可以識別顱內出血,顱骨骨折,中線移位和頭部CT掃描的質量效應[3]。與標準的臨床工具相比,可通過循環神經網絡(RNN)實時預測心臟外科手術后患者的死亡率,腎衰竭和術后出血[4]。ResNet-50和Darknet-19已被用于對超聲圖像中的良性或惡性病變進行分類,顯示出相似的靈敏度和更高的特異性[5]。

2、檢測

檢測通常以邊界框或界標的形式提供感興趣區域的空間定位,并且還可以包括圖像或區域級別的分類。同樣,基于深度學習的方法在檢測各種異常或醫學狀況方面也顯示出了希望。用于檢測的DCNN通常由用于特征提取的卷積層和用于確定邊界框屬性的回歸層組成。

為了從4D正電子發射斷層掃描(PET)圖像中檢測前列腺癌,對深度堆疊的卷積自動編碼器進行了訓練,以提取統計和動力學生物學特征[6]。對于肺結節的檢測,提出了具有旋轉翻譯組卷積(3D G-CNN)的3D CNN,具有良好的準確性,靈敏度和收斂速度[7]。對于乳腺病變的檢測,基于深度Q網絡擴展的深度強化學習(DRL)用于從動態對比增強MRI中學習搜索策略[8]。為了從CT掃描中檢測出急性顱內出血并改善網絡的可解釋性,Lee等人[9]使用注意力圖和迭代過程來模仿放射科醫生的工作流程。

3、分割

分割可被視為像素級或體素級圖像分類問題。由于早期作品中計算資源的限制,每個圖像或卷積都被劃分為小窗口,并且訓練了CNN來預測窗口中心位置的目標標簽。通過在密集采樣的圖像窗口上運行CNN分類器,可以實現圖像或體素分割。例如,Deepmedic對MRI的多模式腦腫瘤分割顯示出良好的性能[10]。但是,基于滑動窗口的方法效率低下,因為在許多窗口重疊的區域中會重復計算網絡功能。由于這個原因,基于滑動窗口的方法最近被完全卷積網絡(FCN)取代[11]。關鍵思想是用卷積層和上采樣層替換分類網絡中的全連接層,這大大提高了分割效率。對于醫學圖像分割,諸如U-Net [12][13]之類的編碼器-解碼器網絡已顯示出令人鼓舞的性能。編碼器具有多個卷積和下采樣層,可提取不同比例的圖像特征。解碼器具有卷積和上采樣層,可恢復特征圖的空間分辨率,并最終實現像素或體素密集分割。在[14]中可以找到有關訓練U-Net進行醫學圖像分割的不同歸一化方法的綜述。

對于內窺鏡胰管和膽道手術中的導航,Gibson等人 [15]使用膨脹的卷積和融合的圖像特征在多個尺度上分割來自CT掃描的腹部器官。為了從MRI進行胎盤和胎兒大腦的交互式分割,將FCN與用戶定義的邊界框和涂鴉結合起來,其中FCN的最后幾層根據用戶輸入進行了微調[16]。手術器械界標的分割和定位被建模為熱圖回歸模型,并且使用FCN幾乎實時地跟蹤器械[17]。對于肺結節分割,Feng等通過使用候選篩選方法從弱標記的肺部CT中學習辨別區域來訓練FCN,解決了需要精確的手動注釋的問題[18]。Bai等提出了一種自我監督的學習策略,以有限的標記訓練數據來提高U-Net的心臟分割精度[19]。

4、配準

配準是兩個醫學圖像,體積或模態之間的空間對齊,這對于術前和術中規劃都特別重要。傳統算法通常迭代地計算參數轉換,即彈性,流體或B樣條曲線模型,以最小化兩個醫療輸入之間的給定度量(即均方誤差,歸一化互相關或互信息)。最近,深度回歸模型已被用來代替傳統的耗時和基于優化的注冊算法。

示例性的基于深度學習的配準方法包括VoxelMorph,它通過利用基于CNN的結構和輔助分割來將輸入圖像對映射到變形場,從而最大化標準圖像匹配目標函數[20]。提出了一個用于3D醫學圖像配準的端到端深度學習框架,該框架包括三個階段:仿射變換預測,動量計算和非參數細化,以結合仿射配準和矢量動量參數化的固定速度場[21]。提出了一種用于多模式圖像配準的弱監督框架,該框架對具有較高級別對應關系的圖像(即解剖標簽)進行訓練,而不是用于預測位移場的體素級別轉換[22]。每個馬爾科夫決策過程都由經過擴張的FCN訓練的代理商進行,以使3D體積與2D X射線圖像對齊[23]。RegNet是通過考慮多尺度背景而提出的,并在人工生成的位移矢量場(DVF)上進行了培訓,以實現非剛性配準[24]。3D圖像配準也可以公式化為策略學習過程,其中將3D原始圖像作為輸入,將下一個最佳動作(即向上或向下)作為輸出,并將CNN作為代理[25]。

參考文獻: 
[1]   G. Litjens, T. Kooi, B. E.Bejnordi, A. A. A. Setio, F. Ciompi, M. Ghafoorian, J. A. Van Der Laak, B. VanGinneken, and C. I. Sa′nchez, “A survey on deep learning in medical image analysis,” Medical Image Analysis, vol. 42, pp. 60–88, 2017.
[2]   P. Khosravi, E. Kazemi, M.Imielinski, O. Elemento, and I. Hajirasouliha, “Deep convolutional neural networks enable discrimination of heterogeneous digital pathology images,” EBioMedicine, vol. 27, pp. 317–328, 2018.
[3]   S. Chilamkurthy, R. Ghosh, S.Tanamala, M. Biviji, N. G. Campeau, V. K. Venugopal, V. Mahajan, P. Rao, and P.Warier, “Deep learning algorithms for detection of critical findings in head CT scans: a retrospective study,” The Lancet, vol. 392, no. 10162, pp. 2388–2396,2018.
[4]   A. Meyer, D. Zverinski, B.Pfahringer, J. Kempfert, T. Kuehne, S. H. Su¨ndermann, C. Stamm, T. Hofmann, V.Falk, and C. Eickhoff, “Machine learning for real-time prediction of complications in critical care: a retrospective study,” The Lancet RespiratoryMedicine, vol. 6, no. 12, pp. 905–914, 2018.
[5]   X. Li, S. Zhang, Q. Zhang, X.Wei, Y. Pan, J. Zhao, X. Xin, C. Qin, X. Wang, J. Li et al., “Diagnosis of thyroid cancer using deep convolutional neural network models applied to sonographic images: a retrospective, multicohort, diagnostic study,” The LancetOncology, vol. 20, no. 2, pp. 193–201, 2019.
[6]   E. Rubinstein, M. Salhov, M.Nidam-Leshem, V. White, S. Golan, J. Baniel, H. Bernstine, D. Groshar, and A.Averbuch, “Unsupervised tumor detection in dynamic PET/CT imaging of the prostate,” Medical Image Analysis, vol. 55, pp. 27–40, 2019.
[7]   M. Winkels and T. S. Cohen,“Pulmonary nodule detection in CT scan with equivariant CNNs,” Medical image analysis, vol. 55, pp. 15–26, 2019.
[8]   G. Maicas, G. Carneiro, A. P.Bradley, J. C. Nascimento, and I. Reid,“Deep reinforcement learning for active breast lesion detection from DCE-MRI,” in Proceedings of International Conference on Medical image computing and Computer-Assisted Intervention (MICCAI). Springer, 2017, pp.665–673.
[9]   H. Lee, S. Yune, M. Mansouri,M. Kim, S. H. Tajmir, C. E. Guerrier, S. A. Ebert, S. R. Pomerantz, J. M.Romero, S. Kamalian et al., “An explainable deep-learning algorithm for the detection of acute intracranial hemorrhage from small datasets,” NatureBiomedical Engineering, vol. 3, no. 3, p. 173, 2019.
[10]K. Kamnitsas, C. Ledig, V. F.Newcombe, J. P. Simpson, A. D. Kane, D. K. Menon, D. Rueckert, and B. Glocker, “Efficient multi-scale 3D CNN with fully connected CRF for accurate brain lesion segmentation,” Medical image analysis, vol. 36, pp. 61–78, 2017.
[11]J. Long, E. Shelhamer, and T.Darrell, “Fully convolutional networks for semantic segmentation,” in proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2015, pp. 3431–3440.
[12]O. Ronneberger, P. Fischer, and T. Brox, “U-Net: Convolutional networks for biomedical image segmentation,” in Proceedings of International Conference on Medical Image Computing and computer-Assisted Intervention (MICCAI). Springer, 2015, pp. 234–241.
[13]O. C¸i¸cek, A. Abdulkadir, S.S. Lienkamp, T. Brox, and O. Ronneberger,¨ “3D U-Net: learning dense volumetric segmentation from sparse annotation,” in Proceedings of InternationalConference on Medical Image Computing and Computer-Assisted Intervention(MICCAI). Springer, 2016, pp. 424–432.
[14]X.-Y. Zhou and G.-Z. Yang,“Normalization in training U-Net for 2D biomedical semantic segmentation,” IEEERobotics and Automation Letters, vol. 4, no. 2, pp. 1792–1799, 2019.
[15]E. Gibson, F. Giganti, Y. Hu,E. Bonmati, S. Bandula, K. Gurusamy, B. Davidson, S. P. Pereira, M. J.Clarkson, and D. C. Barratt, “Automatic multi-organ segmentation on abdominal CT with dense networks,” IEEE Transactions on Medical Imaging, vol. 37, no. 8,pp.1822–1834, 2018.
[16]G. Wang, W. Li, M. A. Zuluaga,R. Pratt, P. A. Patel, M. Aertsen, T. Doel, A. L. David, J. Deprest, S.Ourselin et al., “Interactive medical image segmentation using deep learning with image-specific fine-tuning,” IEEE Transactions on Medical Imaging, vol.37, no. 7, pp. 1562–1573, 2018.
[17]I. Laina, N. Rieke, C.Rupprecht, J. P. Vizca′ıno, A. Eslami, F. Tombari, and N. Navab, “Concurrentsegmentation and localization for tracking of surgical instruments,” in Proceedings of International Conference on Medical Image Computing and Computer-Assisted Intervention (MICCAI).Springer, 2017, pp. 664–672.
[18]X. Feng, J. Yang, A. F. Laine,and E. D. Angelini, “Discriminative localization in CNNs for weakly-supervised segmentation of pulmonary nodules,” in Proceedings of International Conference on Medical Image Computing and Computer-Assisted Intervention (MICCAI). Springer, 2017,pp. 568–576.
[19]W. Bai, C. Chen, G. Tarroni,J. Duan, F. Guitton, S. E. Petersen, Y. Guo, P. M. Matthews, and D. Rueckert,“Self-supervised learning for cardiac MR image segmentation by anatomical position prediction,” in International Conference on Medical Image Computing and ComputerAssisted Intervention. Springer, 2019, pp. 541–549.
[20]G. Balakrishnan, A. Zhao, M.R. Sabuncu, J. Guttag, and A. V. Dalca, “VoxelMorph: a learning framework for deformable medical image registration,” IEEE Transactions on Medical Imaging,2019.
[21]Z. Shen, X. Han, Z. Xu, and M.Niethammer, “Networks for joint affine and non-parametric image registration,”in Proceedings of the IEEE Conference on Computer Vision and pattern recognition (CVPR), 2019, pp. 4224–4233.
[22]Y. Hu, M. Modat, E. Gibson, W.Li, N. Ghavami, E. Bonmati, G. Wang, S. Bandula, C. M. Moore, M. Emberton etal., “Weaklysupervised convolutional neural networks for multimodal image registration,” Medical Image Analysis, vol. 49, pp. 1–13, 2018.
[23]S. Miao, S. Piat, P. Fischer,A. Tuysuzoglu, P. Mewes, T. Mansi, and R. Liao, “Dilated FCN for multi-agent2D/3D medical image registration,” in Proceedings of AAAI Conference on artificial intelligence, 2018.
[24]H. Sokooti, B. de Vos, F.Berendsen, B. P. Lelieveldt, I. Iˇsgum, and M. Staring, “Nonrigid image registration using multi-scale 3D convolutional neural networks,” in Proceedings of International Conference on Medical Image Computing and computer-Assisted Intervention (MICCAI). Springer, 2017, pp. 232–239.
[25]R. Liao, S. Miao, P. deTournemire, S. Grbic, A. Kamen, T. Mansi, and D. Comaniciu, “An artificial agent for robust image registration,” in Proceedings of AAAI Conference on Artificial Intelligence, 2017.




Technica公司發布智能霧計算平臺技術白皮書

SmartFog可以輕松地將人工智能分析微服務部署到云、霧和物聯網設備上,其架構支持與現有系統的靈活集成,提供了大量的實現方案,要用下一代人工智能算法來彌補現有解決方案的不足。

百度算法大牛35頁PPT講解基于EasyDL訓練并部署企業級高精度AI模型

百度AI開發平臺高級研發工程師餅干老師,為大家系統講解企業在AI模型開發中的難點,以及針對這些難點,百度EasyDL專業版又是如何解決的

張帆博士與Yiannis Demiris教授團隊提出高效的機器人學習抓取衣服方法

機器人輔助穿衣通常人工的將衣服附在機器人末端執行器上,忽略機器人識別衣服抓取點并進行抓取的過程,從而將問題簡化

基于多任務學習和負反饋的深度召回模型

基于行為序列的深度學習推薦模型搭配高性能的近似檢索算法可以實現既準又快的召回性能,如何利用這些豐富的反饋信息改進召回模型的性能

實時識別卡扣成功裝配的機器學習框架

卡扣式裝配廣泛應用于多種產品類型的制造中,卡扣裝配是結構性的鎖定機制,通過一個機器學習框架將人類識別成功快速裝配的能力遷移到自主機器人裝配上。

華南理工大學羅晶博士和楊辰光教授團隊發文提出遙操作機器人交互感知與學習算法

羅晶博士和楊辰光教授團隊提出,遙操作機器人系統可以自然地與外界環境進行交互、編碼人機協作任務和生成任務模型,從而提升系統的類人化操作行為和智能化程度

【深度】未來5-10年計算機視覺發展趨勢為何?

專家(查紅彬,陳熙霖,盧湖川,劉燁斌,章國鋒)從計算機視覺發展歷程、現有研究局限性、未來研究方向以及視覺研究范式等多方面展開了深入的探討

音樂人工智能、計算機聽覺及音樂科技

音樂科技、音樂人工智能與計算機聽覺以數字音樂和聲音為研究對象,是聲學、心理學、信號處理、人工智能、多媒體、音樂學及各行業領域知識相結合的重要交叉學科,具有重要的學術研究和產業開發價值

讓大規模深度學習訓練線性加速、性能無損,基于BMUF的Adam優化器并行化實踐

Adam 算法便以其卓越的性能風靡深度學習領域,該算法通常與同步隨機梯度技術相結合,采用數據并行的方式在多臺機器上執行

基于深度學習和傳統算法的人體姿態估計,技術細節都講清楚了

人體姿態估計便是計算機視覺領域現有的熱點問題,其主要任務是讓機器自動地檢測場景中的人“在哪里”和理解人在“干什么”

傳統目標檢測算法對比

SIFT、PCA-SIFT、SURF 、ORB、 VJ 等目標檢測算法優缺點對比及使用場合比較

基于深度學習目標檢測模型優缺點對比

深度學習模型:OverFeat、R-CNN、SPP-Net、Fast、R-CNN、Faster、R-CNN、R-FCN、Mask、R-CNN、YOLO、SSD、YOLOv2、416、DSOD300、R-SSD
資料獲取
機器人開發
== 最新資訊 ==
ChatGPT:又一個“人形機器人”主題
ChatGPT快速流行,重構 AI 商業
中國機器視覺產業方面的政策
中國機器視覺產業聚焦于中國東部沿海地區(
從CHAT-GPT到生成式AI:人工智能
工信部等十七部門印發《機器人+應用行動實
全球人工智能企業市值/估值 TOP20
創澤智能機器人集團股份有限公司第十一期上
諧波減速器和RV減速器比較
機器人減速器:諧波減速器和RV減速器
人形機器人技術難點 高精尖技術的綜合
機器人大規模商用面臨的痛點有四個方面
青島市機器人產業概況:機器人企業多布局在
六大機器人產業集群的特點
機械臂-高度非線性強耦合的復雜系統
== 機器人推薦 ==
迎賓講解服務機器人

服務機器人(迎賓、講解、導診...)

智能消毒機器人

智能消毒機器人

機器人開發平臺

機器人開發平臺


機器人招商 Disinfection Robot 機器人公司 機器人應用 智能醫療 物聯網 機器人排名 機器人企業 機器人政策 教育機器人 迎賓機器人 機器人開發 獨角獸 消毒機器人品牌 消毒機器人 合理用藥 地圖
版權所有 創澤智能機器人集團股份有限公司 中國運營中心:北京 清華科技園九號樓5層 中國生產中心:山東日照太原路71號
銷售1:4006-935-088 銷售2:4006-937-088 客服電話: 4008-128-728

主站蜘蛛池模板: 国产美女网站视频| 欧美日韩一区二区三区四区在线观看| 国内毛片| 亚洲区一二三四区2021| 一级全黄生活片| 2021中文字幕| 久久综合色区| 黄色激情小视频| 国产91高清在线| 永久免费在线观看视频| 2022av视频| 国产精品爽爽影院在线| 国产精品亚洲第五区在线 | 国产精品极品| 国产高清日韩| 亚洲精品女同一区二区三区| 一级毛片一级毛片a毛片欧美| 欧美日韩亚洲第一页| 91精品久久一区二区三区| 国产v日韩v欧美v精品专区| 毛片毛片毛片毛片毛片| 一本久道久久综合婷婷五| 麻豆精品国产免费观看| 黄网站色在线视频免费观看| 妖精视频在线播放| 久久精品爱| 色综合天天色| 91日本在线精品高清观看| 国产一级特黄aaaa大片野外| 中文字幕在线网址| 亚洲女同做爰| 高清国产一级毛片国语| 国产毛片一级| 日韩性黄色一级| 亚洲 欧美 中文 日韩专区| 成人国内精品久久久久影| 欧美激情婷婷| 一级黄色在线看| 久久人人青草97香蕉| 性香港xxxxx免费视频播放| 成人在线视频免费看|