近年來,深度學(xué)習(xí)網(wǎng)絡(luò)(Deep?Neural?Network,DNN)憑借其卓越的能力在各個(gè)領(lǐng)域取得了顯著成就,但訓(xùn)練出高質(zhì)量的?DNN仍然面臨諸多挑戰(zhàn)。盡管可視化方法為DNN訓(xùn)練提供了有力輔助,然而當(dāng)前主流的事后分析(post-hoc?analysis)策略在實(shí)際應(yīng)用中卻暴露出許多問題,例如數(shù)據(jù)量龐大導(dǎo)致存儲困難、I/O?開銷過高,以及無法實(shí)現(xiàn)實(shí)時(shí)干預(yù)等等?。特別是DNN?訓(xùn)練過程中產(chǎn)生的海量時(shí)間序列數(shù)據(jù),現(xiàn)有工具卻難以從中提取出詳細(xì)的訓(xùn)練過程信息,給模型優(yōu)化帶來了阻礙。
我中心先進(jìn)交互式應(yīng)用與發(fā)展部團(tuán)隊(duì)創(chuàng)新性地提出了一個(gè)針對深度學(xué)習(xí)模型訓(xùn)練數(shù)據(jù)的原位可視分析框架,并形成了原位特征提取和神經(jīng)元學(xué)習(xí)模式抽象兩大核心算法。原位特征提取算法在模型運(yùn)行時(shí)復(fù)用內(nèi)存數(shù)據(jù),實(shí)時(shí)分析動(dòng)態(tài)數(shù)據(jù),有效解決了傳統(tǒng)事后分析的數(shù)據(jù)存儲和 I/O 瓶頸問題;而神經(jīng)元學(xué)習(xí)模式抽象算法則基于原位特征數(shù)據(jù),抽象出神經(jīng)元的三種學(xué)習(xí)模式,為可視分析提供了有力支持。
該框架在性能方面表現(xiàn)良好,對千萬參數(shù)深度神經(jīng)網(wǎng)絡(luò)模型的時(shí)序訓(xùn)練數(shù)據(jù)壓縮率可達(dá) 1% ,不僅能夠支撐訓(xùn)練全過程的問題可視分析與回溯,還能實(shí)現(xiàn) batch level 神經(jīng)元信息可視化,為深度學(xué)習(xí)模型優(yōu)化提供全新視角和有力支持。該成果被可視化領(lǐng)域期刊IEEE?Transactions?on?Visualization?and?Computer?Graphics(IEEE?TVCG,CCF-A類期刊)錄用,第一作者為我中心李觀副研究員,通信作者為我中心單桂華研究員。
該研究得到中國科學(xué)院先導(dǎo)專項(xiàng)和國家自然科學(xué)青年科學(xué)基金的資助。
深度學(xué)習(xí)模型原位分析流程
深度學(xué)習(xí)模型原位可視分析系統(tǒng)
相關(guān)成果
Li Guan,Junpeng Wang,Yang Wang,Guihua Shan*,Ying Zhao. An In-Situ Visual Analytics Framework for Deep Neural Networks,IEEE Transactions on Visualization and Computer Graphics,6770-6786,Oct. 2024.
責(zé)任編輯:郎楊琴