AIMv2,Apple发布的多模态自回归目标进行预训练视觉模型,在大多数多模态理解基准测试中优于 OAI CLIP 和 SigLIP,在开放词汇表对象检测和引用表达式理解方面优于 DINOv2,AIMv2-3B 表现出强大的识别性能,使用冻结主干在 ImageNet 上实现 89.5%.
Github地址:https://github.com/apple/ml-aim
论文地址:https://arxiv.org/abs/2411.14402
模型下载地址:https://huggingface.co/collections/apple/aimv2-6720fe1558d94c7805f7688c
微信扫描下方的二维码阅读本文
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
评论(0)