知乎:Cassie
链接:https://zhuanlan.zhihu.com/p/721908386

写在前面

Qwen团队在 2024年9月19日开源了Qwen2-VL-72B 模型,并发布了技术报告。这里简单介绍下“国货之光”——Qwen2-VL-72B 的技术细节。

1. Contributions

(1) 多语言模型

918cc206394d293b5d595dd4193dac97.pngQwen 在多语言OCR任务上的表现。

(2) 支持任意分辨率、比例的素材(img + video + text)输入,在视觉评测集(DocVQA, InfoVQA, RealWorldQA, MTVQA, MathVista等)上取得SoTA结果

当前的LVLM是把输入的图片处理成固定尺寸,例如224*224,作者认为这会限制模型捕捉不同尺度信息的能力,同时会使高分辨率图像丢失太多信息;

vision encoder的训练不够,有研究通过ft vision encoder获得了模型性能的提升;

为了提升作者对不通分辨率图片的处理能力,作者移除了绝对位置编码PE,引入了2D Rotary Position Embedding。

(3) 支持img + video + text等多种模态的输入,支持20分钟以上视频输入

位置编码移除LLM中的1D-RoPE,将其分解为components: temporal, height, and width;

引入Multimodal Rotary Position Embedding (M-RoPE)。例如对text输入,distinct-IDs退化为1D-RoPE;对image输入,distinct-IDs是由height & width components决定的;对于video输入,distinct-IDs是由height & width + temporal决定的。5e425fb50df6cb3d1c90b16a053feb84.png

2. Approach

(1) 范式vision encoder(ViT) + LLM (无adapter)

be790b4c02d078277de9ff7711f6db73.png模型结构。

(2) 参数量

de1a428b3eb3cddf1d7db1e35342cf45.png三种规模的参数量。

3. Training details

(1) Parallelism: 同时应用Data Parallelism, Tensor Parallelism, Pipeline Parallelism, Sequence parallelism。

(2) 分布式: deepspeed zero_1。

(3) Image and Video放在一起训练。video每秒抽两帧,image每张复制一份,即image跟video保持一致一起训。vit的时候,数据用了3D convolution,从而保持帧间连贯性。

(4) 3-stage training 其中llm由QWen2初始化来的,ViT由DFN初始化来;

modelstage aimdatasets

freeze llm,train ViTlearning image-text relationships

unfreeze llm,train llm+ViTfacilitating a more nuanced understanding of the interplay between visual and textual information,提升关键的文字理解能力

freeze ViT,train llm(instruction ft)develop a more versatile and robust language model capable of handling complex, multimodal tasks in addition to traditional text-based interactions

(5) datasets知识更新自202306之前。

(6) QWen2的词表新增了一些special token(e.g.,<|vision_start|>Picture1.jpg<|vision_end|>)。

4. Performance

(1) benchmark。

37c9fe7e8c67f3cbb50f808c18003907.jpeg

(2) 消融实验。

4fbf9cce34bc48758e41aa18b010c6d1.png1D-RoPE vs M-RoPE。0c6bef24ccf5e22bac2401b153f14a0c.pngmodel scale的表现对比。

5. Limitations

(1) 无法识别视频中的语音。

(2) 知识更新到202306。

(3) 识别知名人物和IP的能力不够。

(4) 处理复杂的多步骤任务的能力不够。

(5) 数数的能力不足。

(6) 3-D空间识别能力不足。

-1. 写在后面

(1) 资源使用。目前我在8张a100上训练Qwen2-vl-72b,用deepspeed zero_3勉强能训练起来。

ec21b8158fe014681b7ce7446a5b43f1.png不同模型规模不通训练方法的显存依赖。

参数量和显存占用大概的关系ref:大模型参数量和占的显存怎么换算?

https://www.zhihu.com/question/612046818/answer/3438795176

(2) LVLM的数据模型laws目前尚不清楚,仍然相信大力出奇迹(直观看72B明显强于7B)。

(3) 一个有意思的测评链接,结论是Pixtral擅长vision-based的问答,Qwen2-vl擅长text-based的问答。

https://ai.gopubby.com/testing-the-pixtral-model-from-mistral-67fd82810288


备注:昵称-学校/公司-方向/会议(eg.ACL),进入技术/投稿群

aa63810eba370d452633624854f8b128.png

id:DLNLPer,记得备注呦

Logo

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!

更多推荐