高馬爾
一個信息發佈的網站

32B本地部署!阿裏開源最新多模态模型:主打視覺語言,數學推理也很強

今天小編(惠惠君)要和大家分享的是32B本地部署!阿裏開源最新多模态模型:主打視覺語言,數學推理也很強,歡迎閲讀~

就在 DeepSeek-V3 更新的同一夜,阿裏通義千問 Qwen 又雙叒叕一次夢幻聯動了——

發布Qwen2.5-VL-32B-Instruct

此前開源家族視覺語言模型 Qwen2.5-VL 包括 3B、7B 和 72B 三種尺寸。

這一次的 32B 版本進一步兼顧尺寸和性能,可在本地運行。

同時經過強化學習優化,在三個方面改進顯著:

回答更符合人類偏好;

擁有更強的數學推理能力;

在影像解析、内容識别以及視覺邏輯推導等任務中,表現出更強的準确性和細粒度分析能力。

對比近期開源的 Mistral-Small-3.1-24B 、Gemma-3-27B-IT 等, Qwen2.5-VL-32B 在純文本能力上也達到了同規模的 SOTA 表現。在多個基準上,Qwen2.5-VL-32B 甚至超過了 72B。

舉個栗子,比如根據一張交通指示牌照片,Qwen2.5-VL-32B 就能做如下精細的影像理解和推理:

我正在這條路上駕駛一輛大卡車,現在 12 點了。我能在 13 點之前到達 110 公裏遠的地方嗎?

Qwen2.5-VL-32B 首先對時間、距離、卡車限速進行分析,然後分步驟條理清晰推算出正确答案:

模型已經開源,盡管自己前往實測~

Qwen2.5-VL-32B 更多表現示例

官方剛剛發布的技術博客中也放出了更多展示示例。

數學推理能力上,幾何體分析也不在話下:

同樣是先有問題分析環節,然後再分四個小步驟推理正确答案:

下面這種復雜難題也能解:

能夠依次類推,歸納出構造規律:

像下面這種圖片理解就更不在話下了:

多輪深度提問也可以:

模型開源,已能實測

現在,阿裏已将 Qwen2.5-VL-32B-Instruct 放在了 Hugging Face 上。

在 Qwen Chat 上就能直接體驗 Qwen2.5-VL-32B,感興趣的童鞋可以試試。

動作快的網友已經開始在 MLX Community 運行了:

在 Hacker News 上,網友也就 DeepSeek 和 Qwen 的舉動進行了新一輪熱烈讨論。網友紛紛表示:

開源赢了,奧特曼錯了。

值得一提的是,春節期間,DeepSeek 曾與阿裏通義千問 Qwen 多次幾乎同時發布新模型,這一次又雙叒叕趕一塊去了。

杭州,原來真的是商量着一起發???

參考鏈接:

[ 1 ] https://qwenlm.github.io/zh/blog/qwen2.5-vl-32b/

[ 2 ] https://x.com/Alibaba_Qwen/status/1904227859616641534

[ 3 ] https://news.ycombinator.com/item?id=43464068

關于32B本地部署!阿裏開源最新多模态模型:主打視覺語言,數學推理也很強就分享完了,您有什麼想法可以聯系小編(惠惠君)。