今天小編(惠惠君)要和大家分享的是32B本地部署!阿裏開源最新多模态模型:主打視覺語言,數學推理也很強,歡迎閲讀~
就在 DeepSeek-V3 更新的同一夜,阿裏通義千問 Qwen 又雙叒叕一次夢幻聯動了——
發布Qwen2.5-VL-32B-Instruct。
此前開源家族視覺語言模型 Qwen2.5-VL 包括 3B、7B 和 72B 三種尺寸。
這一次的 32B 版本進一步兼顧尺寸和性能,可在本地運行。
同時經過強化學習優化,在三個方面改進顯著:
回答更符合人類偏好;
擁有更強的數學推理能力;
在影像解析、内容識别以及視覺邏輯推導等任務中,表現出更強的準确性和細粒度分析能力。
對比近期開源的 Mistral-Small-3.1-24B 、Gemma-3-27B-IT 等, Qwen2.5-VL-32B 在純文本能力上也達到了同規模的 SOTA 表現。在多個基準上,Qwen2.5-VL-32B 甚至超過了 72B。
舉個栗子,比如根據一張交通指示牌照片,Qwen2.5-VL-32B 就能做如下精細的影像理解和推理:
我正在這條路上駕駛一輛大卡車,現在 12 點了。我能在 13 點之前到達 110 公裏遠的地方嗎?
Qwen2.5-VL-32B 首先對時間、距離、卡車限速進行分析,然後分步驟條理清晰推算出正确答案:
模型已經開源,盡管自己前往實測~
Qwen2.5-VL-32B 更多表現示例
官方剛剛發布的技術博客中也放出了更多展示示例。
數學推理能力上,幾何體分析也不在話下:
同樣是先有問題分析環節,然後再分四個小步驟推理正确答案:
下面這種復雜難題也能解:
能夠依次類推,歸納出構造規律:
像下面這種圖片理解就更不在話下了:
多輪深度提問也可以:
模型開源,已能實測
現在,阿裏已将 Qwen2.5-VL-32B-Instruct 放在了 Hugging Face 上。
在 Qwen Chat 上就能直接體驗 Qwen2.5-VL-32B,感興趣的童鞋可以試試。
動作快的網友已經開始在 MLX Community 運行了:
在 Hacker News 上,網友也就 DeepSeek 和 Qwen 的舉動進行了新一輪熱烈讨論。網友紛紛表示:
開源赢了,奧特曼錯了。
值得一提的是,春節期間,DeepSeek 曾與阿裏通義千問 Qwen 多次幾乎同時發布新模型,這一次又雙叒叕趕一塊去了。
杭州,原來真的是商量着一起發???
參考鏈接:
[ 1 ] https://qwenlm.github.io/zh/blog/qwen2.5-vl-32b/
[ 2 ] https://x.com/Alibaba_Qwen/status/1904227859616641534
[ 3 ] https://news.ycombinator.com/item?id=43464068
關于32B本地部署!阿裏開源最新多模态模型:主打視覺語言,數學推理也很強就分享完了,您有什麼想法可以聯系小編(惠惠君)。