当前位置: 首页 > news >正文

网站未授权cas要怎么做浙江企业网站建设

网站未授权cas要怎么做,浙江企业网站建设,北京城乡建设网站首页,.net网站开发模板1. 摘要 本文主要通过分析模型结构和数据选择讨论如何构建一个好的多模态大模型(MLLM),并同时提出了MM1模型,包括30B dense版本和64B的MoE版本。 具体贡献: 模型层面:影响效果的重要性排序为:…

1. 摘要

本文主要通过分析模型结构和数据选择讨论如何构建一个好的多模态大模型(MLLM),并同时提出了MM1模型,包括30B dense版本和64B的MoE版本。
具体贡献:

  • 模型层面:影响效果的重要性排序为:image resolution,visual encoder loss和capacity和visual encoder预训练数据。multimodal预训练数据类型:image caption,interleaved image-text和text-only。
    • 在few-shot和text-only上的表现:interleaved image-text和text-only两种数据最为重要。
    • 在zero-shot上的表现:image caption数据最为重要。

以上两种特性,在SFT阶段也有体现。

  • 通过扩大LLM大小的方式进行scale up。模型大小分别有3B,7B,30B等。

2. 方法和实验

2.1 简介

在这里插入图片描述
这部分主要探索三个(结构,数据和训练步骤)对多模态大模型效果的影响,

  • 模型基础配置:
    • Image Encoder:ViT-L/14模型,训练loss为clip loss,训练数据DFN-5B和VeCap-300M,image size为336*336
    • Vision-Language Connector:C-Abstractor,最大输出144 image token。
    • Pre-training Data:45% image caption数据,45% interleaved image-text数据和10% text-only数据。
    • Language Model: 1.2B transformer decoder-only模型。

2.2 模型结构影响

2.2.1 Image Encoder Pre-training

Image Encoder的选择对多模态大模型的预训练和微调都有很大的影响。
在这里插入图片描述

  • contrastive loss:能让image encoder学习到语义知识。示例模型:CLIP
  • Reconstructive loss:在一些dense prediction上,clip类模型很难达到很好的效果,比如说VQA和caption,这类任务需要对image有很好的理解。示例模型:AIM
  • 小结:
    • Image resoluton最为重要,其次是model size和训练数据组成。从上图中可以看出,增加image resolution效果最为明显,而增加model size和数据效果提升在1%左右。
    • 模型类型:对比学习loss训练的模型比reconstructive loss训练的模型效果要好。但这个结论并不确定,因为AIM模型训练数据较少。

2.2.2 Vision-Language Connector and Image Resolution

  • 配置

    • 使用64或144个token代表每个image,
    • 有两个不同的resolution:224和336.
    • 结构选择:
      • average pooling:对ViT输出结果使用n*n average pooling,然后接上linear projection。(n=[8, 12])
      • attention pooling:使用k learnable queries,通过改变k来改变输出到LLM的image token数。k=[64, 144]
      • Convolutional mapping:C-Abstractor module:ResNet block,through adaptive pooling can change the number of image tokens。
  • 小结:visual token数和image resolution最为重要,VL connector有少量影响。在instruction tuning阶段,这三种结构在不同的分辨率和image token时有着相似的结果。
    在这里插入图片描述

2.3 预训练数据影响

在这里插入图片描述

  • 小结:
    在这里插入图片描述

    • Interleaved data对few-shot和text-only的表现最为重要,captioning data对zero-shot表现比较重要。
    • Text-only数据对few-shot和text-only表现有帮助。
    • 细致的混合image和text数据能够得到最优的多模态性能和好的文本性能。最好的比例为caption:interleaved:text=5:5:1。
    • 合成数据对few-shot有帮助。

2.4 训练步骤

  • 模型参数和学习率关系:
    在这里插入图片描述
    具体关系如下:
    在这里插入图片描述

3. 结论

  • MM1模型预训练参数:
    • Image Encoder:ViT-H,分辨率378*378,训练数据DFN-5B,CLIP objective
    • Vision-Language Connector:VL connection with 144 tokens,选择用C-Abstractor
    • Data:45% interleaved image-text documents, 45% image-text pair documents, and 10% text-only documents.
    • 超参:batch size=512,max sequence lenght=4096,
    • LR schedule:在初始的2000步,linear warmup,然后在2e5训练步数中降到10%。
    • 使用AdamW优化器,在30B模型训练中,加上z-loss。
  • pretrain 效果如下:
    在这里插入图片描述
  • SFT数据配比:
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

参考文献

MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training

http://www.shuangfujiaoyu.com/news/61299.html

相关文章:

  • wordpress 网站死机网络销售怎么做才能做好
  • drupal 做的网站上海网络推广外包
  • 中小企业网站建设咨询宁波关键词优化企业网站建设
  • 免费个人博客网站迅雷磁力
  • 网站需求分析是在建站的什么阶段做的_为什么要做?制作网站
  • 深圳做分销网站2022百度seo优化工具
  • 网站项目申请百度客服电话24小时
  • 图片手机网站模板公司网站的作用
  • 做婚恋网站的开发百度网络推广怎么收费
  • 在家做任务赚钱网站sem 优化软件
  • 烟台做网站的公司google play官网下载
  • wordpress分类目录最简化404seo和sem是什么
  • 站长工具seo综合查询怎么用学前端去哪个培训机构
  • 万寿路网站建设创建网站花钱吗
  • 重庆百度网站快速排名最近发生的热点事件
  • 学做网站有前途吗seo内部优化包括哪些内容
  • 装饰公司怎样做网站平板电视seo优化关键词
  • app介绍类网站模板企业网站优化工具
  • 一个网站建设域名的构思如何获取网站的seo
  • 南京网站制作价格百度seo排名优化公司哪家强
  • 帆布网站做哪个百度指数手机版
  • 个人备案网站有什么限制国内免费ip地址
  • 仿做网站要多少钱网络营销和传统营销的区别有哪些
  • 门户网站建设的必要性百度快速收录接口
  • 普通网站服务器电商网站设计模板
  • 网络架构模拟器网站推广优化设计方案
  • 安徽网站优化好不好长沙做优化的公司
  • 西宁网站开发公司网络广告营销典型案例
  • 视频网站app怎么做的深圳网络推广专员
  • 深圳网站开发哪个好百度学术论文查重免费