AIMv2,Apple发布的多模态自回归目标进行预训练视觉模型,在大多数多模态理解基准测试中优于 OAI CLIP 和 SigLIP,在开放词汇表对象检测和引用表达式理解方面优于 DINOv2,AIMv2-3B 表现出强大的识别性能,使用冻结主干在 ImageNet 上实现 89.5%.

AIMv2,Apple发布的多模态自回归目标进行预训练视觉模型插图

Github地址:https://github.com/apple/ml-aim

论文地址:https://arxiv.org/abs/2411.14402

模型下载地址:https://huggingface.co/collections/apple/aimv2-6720fe1558d94c7805f7688c



微信扫描下方的二维码阅读本文

AIMv2,Apple发布的多模态自回归目标进行预训练视觉模型插图1

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。