高馬爾
一個信息發佈的網站

港大馬毅團隊等開源新作:用編碼率正則化重構視覺自監督學習範式,“少即是多”

今天小編(謝飛揚)要和大家分享的是港大馬毅團隊等開源新作:用編碼率正則化重構視覺自監督學習範式,“少即是多”,歡迎閲讀~

最新開源的視覺預訓練方法,馬毅團隊、微軟研究院、UC 伯克利等聯合出品!

SimDINOSimDINOv2,通過編碼率正則化簡化 DINO 和 DINOv2 模型訓練流程得到的兩個最新模型。

在目前視覺預訓練領網域,DINO 和 DINOv2 是最強視覺模型梯隊選手,也是目前最常用的方法。在多模态大模型火熱的當下,DINOv2 也經常被用作 VLM 中的視覺編碼器提供視覺特征。

此外,圖靈獎得主、Meta 首席 AI 科學家楊立昆團隊近期關于世界模型的工作,也基于 DINOv2 而來。

(當然了,DINO 模型本身就是四年前 Meta AI 團隊提出的)

但 DINO 系列目前仍然需要基于非常復雜的工程方法來實現。

SimDINO 通過去除 DINO 中復雜的後處理步驟等,解決了 DINO 系列的訓練難題

更令人驚喜的是,簡化後的模型不僅訓練更容易,性能反而更強。

或許這就是 " 簡單即是美 " 的設計理念在深度學習中的重要價值?(手動狗頭)

馬毅表示:

我們不是在修補 DINO,而是在重新發現視覺表示學習的本質規律。

核心方法:化繁為簡

自監督學習(Self-Supervised Learning,SSL)在處理大規模未标記影像數據方面取得了顯著進展。

在 CV 領網域,DINO 系列模型堪稱自監督學習的标杆選手。

這個無需人工标注就能從海量影像中自主學習特征的模型,不僅在下遊任務中屢創佳績,更成為多模态大模型視覺編碼器的标配。

但是,DINO 系列模型的強能力,伴随着「需要被精心呵護」:

需要精心設計的温度調度策略(温度參數 τ 要精确到小數點後三位)

依賴復雜的中心化 - 鋭化操作(堪比精密儀器的校準流程)

必須搭配高維原型投影層(特征維度動辄破萬)

這些 " 保命裝置 " 雖然能防止模型陷入特征崩潰,卻讓訓練過程變成了超參數調優的噩夢。并且當研究人員嘗試改進模型架構或适配新領網域時,往往牽一發而動全身,稍有不慎就會讓整個系統停擺。

為了解決這些問題,SimDINO 和 SimDINOv2 模型閃亮登場~

通過引入編碼率正則化,簡化訓練流程,提高模型的魯棒性和性能

這倆模型的核心思想,是通過編碼率正則化防止表示崩潰,從而去除原始 DINO 和 DINOv2 訓練流程中許多經驗性設計組件。

具體方法包括:

移除經驗性組件:删除權重歸一化的線性層、平衡操作(如中心化、鋭化)以及各種超參數(如温度調度、中心化動量)等。

引入編碼率正則化:在損失函數中添加一個簡單的編碼率正則化項,以防止表示崩潰。

SimDINO 和 SimDINOv2 模型的主要創新點除了上述 2 種方法外,還有一點,即簡化的訓練流程

通過上述 2 種具體方法的改進,SimDINO 和 SimDINOv2 的訓練流程更加簡潔,減少了對超參數的依賴,提高了訓練的穩定性和效率。

引入編碼率正則化,訓練更穩定、性能更強

回顧自監督對比學習 " 同類相聚,異類相斥 " 的原始出發點,研究團隊發現,DINO 中許多復雜設計(如輸出層高維投影、教師網絡輸出中心化 - 鋭化操作、温度調節等)都是在間接地利用負樣本信息來防止模型習得的表示 " 崩潰 "。

而 SimDINO 系列研究團隊提出這一需求,可以轉而使用馬毅提出的數據編碼率失真估計方法(可參考 MCR2 等系列工作),采用顯示度量模型表征的質量作為正則化項。

基于這一發現,研究人員提出了一個解決方案:

引入編碼率(coding rate)正則化,通過在損失函數中添加一個顯式的編碼率正則項來避免表示崩潰。

這個簡單的改動就能替代原本復雜的設計,将訓練流程向簡約靠近。

而簡化的模型訓練流程可以帶來幾個關鍵優勢,即「更清晰的優化目标、更少的組件依賴、更容易的理論分析、更好的可擴展性」。

具體而言,SimDINO 保留了 DINO 模型的 EMA 自蒸餾方案和多視圖數據增強方法,但在對比學習方案上進行了修改。

抛棄輸出層高維原型投影 + 交叉熵多分類,直接使用歐幾裏得距離 / 餘弦相似度比較學生網絡(student network)和教師網絡(teacher network)生成的特征。

加入編碼率正則化項促使模型學習到更具區分性的表示,移除教師網絡輸出中心化 - 鋭化操作、温度調節等避免表示崩潰的技巧。

通過引入編碼率正則化,SimDINO 能夠有效防止特征崩潰,确保學習到的信息具有較大的信息熵,從而提高模型的泛化能力。

SimDINOv2 則進一步将 DINOv2 引入的 iBOT 機制進行替換。

它直接使用餘弦相似度監督掩碼區網域 token 與教師網絡表示間的對齊,而 Sinkhorn-Knopp centering、KoLeo 正則化等復雜設計也被簡化移除。

相比于原版 DINO, SimDINO 的訓練流程更為簡潔,去除了許多繁瑣的組件和超參數,降低了模型訓練的復雜度,使得研究人員和工程師更容易理解和實現這些模型。

從實驗角度看,這一系列操作可以讓模型訓練更穩定,性能也更強。

各種評估均優于 DINO 系列

為了驗證 SimDINO 和 SimDINOv2 的有效性,研究團隊在多個數據集和任務上進行了廣泛的實驗評估,包括影像分類、目标檢測、語義分割以及視頻對象分割。

實驗結果表明,SimDINO 系列在計算效率、訓練穩定性和下遊任務性能上均優于 DINO 系列。

ImageNet-1K 影像分類

SimDINO 和 SimDINOv2 在 ImageNet-1K 上進行了評估,包括 k-NN 分類和線性評估(linear probing)。

還與 DINO、DINOv2 進行了對比。

COCO val2017 無監督目标檢測與實例分割

在目标檢測任務中,研究團隊采用 MaskCut 作為基礎檢測框架,并在 COCO val2017 數據集上進行了評估。

具體來説,主要對比了 AP50、AP75 和 AP 三個指标:

ADE20K 語義分割和 DAVIS-2017 視頻對象分割

在語義分割任務上,研究團隊采用 linear head 并在 ADE20K 數據集上進行了評估。

這個任務上主要對比了 mIoU(平均交并比)和 mAcc(平均像素精度)。

特别要提到的是,SimDINO 還在 DAVIS-2017 上進行了評估,包括 ( J&F ) m、Jm 和 Fm 三個标準指标。

結果顯示,它在定性的特征可視化分析上也展現出了 DINO 系列工作中表現突出的語義表達能力湧現現象。

與此同時,SimDINO 和 SimDINOv2 對超參數和數據的變化更穩健了。

其它

此外,項目論文中通過理論分析,提出了一個關于 SimDINO 超參數選擇的理論:

如何平衡編碼率正則化項和距離項的梯度範數

通過理論推導,作者給出了一個關于超參數 γ 的選擇方法,使得兩個項的梯度範數在優化過程中保持平衡。

下圖顯示的是在 SimDINO 和 DINO 下訓練 ViT-B/16 的訓練動态。

X 軸表示訓練周期(epochs),Y 軸表示在 ImageNet-1K 上的 k-NN 評估性能。

其中,左圖顯示的是兩個模型均在 ImageNet-1K 數據集上訓練

為更好地展示優化過程,研究團隊省略了早期訓練階段的數據。

右圖顯示的是兩個模型均在 COCO train2017 數據集(大約是 ImageNet-1K 的 1/10)上訓練

作為一個驗證實驗,該結果表明 SimDINO 需要更少的超參數調優,并且優化過程更加簡單。

研究團隊

SimDINO 系列由多所學校與機構的研究者共同完成,包括 UC 伯克利、憶生科技、微軟研究院、香港大學等。

一作是 UC 伯克利三年級博士生吳梓陽,導師是馬毅。

他主要研究方向為表征學習與多模态學習,致力于通過數學與統計理論構建高效、可解釋的深度學習模型。

此前,吳梓陽本碩均就讀于康奈爾大學。

在論文最後,SimDINO 研究團隊進一步提出和建議了 SimDINO 的幾個潛在改進方向:

在 SimDINO 框架基礎上進一步探索不需要自蒸餾優化的自監督目标。

簡化後的框架為自監督學習的理論分析提供了更好的切入點。

将 " 顯式化隐式設計選擇 " 的範式推廣到其他框架,啓發并探索其他模型的簡化改進方法。

論文地址:https://arxiv.org/abs/2502.10385

項目主頁:https://robinwu218.github.io/SimDINO

GitHub:https://github.com/RobinWu218/SimDINO

—    —

學術投稿請于工作日發郵件到:

[email protected]

标題注明【投稿】,告訴我們:

你是誰,從哪來,投稿内容‍

附上論文 / 項目主頁鏈接,以及聯系方式哦

我們會(盡量)及時回復你

一鍵關注 點亮星标

科技前沿進展每日見

一鍵三連「點贊」「轉發」「小心心」

歡迎在評論區留下你的想法!

關于港大馬毅團隊等開源新作:用編碼率正則化重構視覺自監督學習範式,“少即是多”就分享完了,您有什麼想法可以聯系小編(謝飛揚)。