6

AI搞定谷歌验证码,最新多模态大模型比GPT-4V空间理解更准确 | 苹果AI/ML团队

 11 months ago
source link: https://www.51cto.com/article/769590.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

AI搞定谷歌验证码,最新多模态大模型比GPT-4V空间理解更准确 | 苹果AI/ML团队

作者:量子位 2023-10-12 13:05:00
Ferret解决的核心问题是让引用(referring)和定位(grounding)两方面空间理解能力更加紧密。

谷歌人机验证已经拦不住AI了!

最新多模态大模型,能轻松找到图中所有交通信号灯,还准确圈出了具体位置。

3477a9b18ce1ac61c5c952b1ed8636a93d7598.png

表现直接超越GPT-4V。

图片

这就是由苹果和哥伦比亚大学研究团队带来的多模态大模型“雪貂”(Ferret)

图片

它具备更强的图文关联能力,提升了大模型在“看说答”任务中的精确度。

比如下图中非常细小的部件(region 1),它也可以分辨出来是避震。

d3c566d95beb3cbd0fb1706271399a228aeda5.png

GPT-4V没能回答正确,在细小部分上的表现不佳。

图片

所以,Ferret是如何做到的呢?

“点一点”图像大模型都懂

Ferret解决的核心问题是让引用(referring)和定位(grounding)两方面空间理解能力更加紧密。

引用是指让模型准确理解给定区域的语义,也就是指一个位置它能知道是什么。

定位则是给出语义,让模型在图中找到对应目标。

对于人类来说,这两种能力是自然结合的,但是现有很多多模态大模型却只会单独使用引用和定位。

743686d60e1a7f6cc952337851a5c80f10d611.png

所以Ferret提出了一种新型的混合区域表示方法,能将离散坐标和连续特征联合起来表示图像中的区域

这样一来,模型就能分辨出边界框几乎一样的对象。

比如下图中两个物体的情况,如果只用离散边界框,模型会感到很“困惑”。和连续的自由形状混合表示相结合,能很好解决这一问题。

d4c7f0322f374c042b50190ac7b416106bdaf3.jpg

为了提取多样化区域的连续特征,论文提出了一种空间感知的视觉采样器,能够处理不同形状之间的稀疏性差异。

因此,Ferret可以接受各种区域输入,如点、边界框和自由形状,并理解其语义。

在输出中,它可以根据文本自动生成每个定位对象的坐标。

图片

为了实现这一目标,Ferret模型的架构包括图像编码器、空间感知的视觉采样器和语言模型(LLM)等组成部分。

Ferret结合了离散坐标和连续特征,形成了一种混合区域表示。

这种表示方法旨在解决表示各种形状和格式的区域的挑战,包括点、边界框和自由形状。

离散坐标中每个坐标都被量化为一个目标框的离散坐标,这种量化确保了模型对不同图像大小的鲁棒性。

而连续特征则由空间感知视觉采样器提取,它利用二进制掩码和特征图在ROI内随机采样点,并通过双线性插值获得特征。

这些特征经过一个由3D点云模型启发的空间感知模块处理后,被浓缩成一个单一的向量, 并映射到大型语言模型(LLM)进行下一步处理。

图片

为了增强Ferret的能力,论文还创建了一个名为GRIT的数据集。

这个数据集包含1.1M个样本,涵盖了个体对象、对象之间的关系、特定区域的描述以及基于区域的复杂推理等四个主要类别。

GRIT数据集包括了从公共数据集转换而来的数据、通过ChatGPT和GPT-4生成的指令调整数据,并额外提供了95K个困难的负样本以提高模型的鲁棒性。

图片

实验结果表明,该模型不仅在经典的引用和定位任务中表现出优越性能,而且在基于区域和需要定位的多模态对话中远远超过现有其他MLLM模型。

图片

此外,研究还提出了Ferret-Bench,可以评估图像局部区域的引用/定位、语义、知识和推理能力。

Ferret模型在LLaVA-Bench和Ferret-Bench上进行评估,在所有任务中都表现出色,特别是在需要指代和视觉grounding的三个新任务上,Ferret的表现很出色。

图片

而且在描述图像细节上有明显提升,幻觉有明显下降。

图片

全华人团队

Ferret大模型由苹果AI/ML和哥伦比亚大学研究团队共同带来,全华人阵容。

有昊轩和张昊天为共同一作。

有昊轩现在为哥伦毕业大学计算机科学博士,毕业后将加入苹果AI/ML团队。2018年从西安电子科技大学本科毕业。

主要研究方向为视觉语言理解、文本-图像生成和视觉语言。

a5da580888c61f7a97e6787cbe8d53ed04f6e7.png

张昊天现在为苹果AI/ML团队视觉智能研究员。

在加入苹果之前,张昊天在华盛顿大学获得博士学位,本科毕业于上海交通大学。

他是GLIP/GLIPv2的主要作者之一,GLIP曾获得CVPR2022的Best Paper Award的提名。

图片

此外团队成员还包括甘哲、王子瑞、曹亮亮、杨寅飞等前谷歌和微软的多位优秀的多模态大模型研究员。

论文地址:https://arxiv.org/abs/2310.07704

责任编辑:张燕妮 来源: 量子位

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK