2025-01-02 15:57:40 | 来源: AICG工具箱
看看这张图中有几个房子?
如果你回答3个,就和GPT-4V的答案一样。
但是最新开源的国产多模态模型CogVLM-17B,就能看出另有玄机。
甚至能区分在图中完整可见的房子有3个,部分可见的房子有1个。
CogVLM由清华和智谱AI合作开发,通讯作者为唐杰和丁铭,论文和开源代码已上传到GitHub。
除这个单独案例之外,CogVLM-17B还在10项权威跨模态基准上取得了SOTA性能。
另外在VQAv2. OKVQA, TextVQA, COCO captioning取得第二,超越或匹配谷歌的PaLI-X 55B。
与之前的开源多模态大模型相比,可以算是14边形战士。
雷达图中包含13个基准,最后一个TDIUC单独展现。
CogVLM可以回答各种类型的视觉问题,比如从马斯克的阴阳怪气中推理出小扎假装去旅行了,回避约架。
认出照片中的C罗,并回答他在2018年世界杯中有多少进球。
带图的编程题也能给出代码了。
甚至能完成复杂的目标检测,并打上标签,自动数据标注成了。
从浅层对齐到深度融合
CogVLM模型包含4个基本组件
ViT编码器MLP适配器大型预训练语言模型视觉专家模块其中,每层中都添加了可训练的视觉专家模块,以实现图像特征和文本特征的深度对齐,而不会牺牲任何NLP任务的性能。
之前主流的浅层对齐方法,如BLIP-2.图像特征和语言模型之间缺乏深度融合,导致性能不佳。
但微调语言模型的全部参数又会损害其NLP能力。
CogVLM的方法可以说是改变了视觉语言模型的训练范式,从浅层对齐转向深度融合。
另外值得注意的是,CogVLM训练数据中没有专门的OCR数据,但表现出了很强的文字识别能力。
CogVLM开源并给出了在线试玩。
不过目前仅支持英文,后续会提供中英双语版本支持,可以持续关注。
试玩地址:http://36.103.203.44:7861
开源及论文地址:https://github.com/THUDM/CogVLM
— 完 —
追踪人工智能新趋势,关注科技行业新突破
热门榜单
Replika,ai伙伴
常用AICool Gift Ideas
常用AI文心一言
常用AIHi Echo — 网易有道
常用AI有道速读 — 网易有道
常用AI讯飞听见
常用AI快影
常用AIWPS AI
常用AI美图设计室
常用AI热门资讯
淘宝AI应用_淘宝问问AI导购助手_官方内测教程方法
01-03金山WPS AI新功能新玩法首发测评:不含水分,中文版「GPT+Office」真的来了!
01-07一句话让小姐姐为我换了N套衣服,谷歌卷出视频生成新高度丨Lumiere AI使用体验分享
12-30首批85个ChatGPT Plus插件全面测评:能打“五星”的插件只有6个
01-07GPTs教程_怎么自己做GPTs_GPTs部署安装
01-15国内首次2024全科高考AI测评开分:阿里通义、GPT-4o等七款大模型参与,文科进一本理科进二本
12-25实测阿里通义千问视觉大模型Qwen-VL Max「超大杯」:会读图、写代码,秒懂网络梗图,中文顶流性能视觉大模型
12-30Midjourney V6生图超进化!国外大神深度测评:对比V5.2版本,画质逼真骇人,人像细节不再有「AI感」
12-30谷歌Gemini引发争议!网友质疑宣传片疑似剪辑效果 夸大宣传丨实测对标GPT-4测评基准有失偏颇
12-30飞书AI协同办公产品“飞书智能伙伴”实测:AI员工搬砖效率震惊全公司
12-30