Molmo,开源的视觉多模态模型,分1B、7B、72B.
Molmo 模型 MolmoE-1B 基于我们完全开放的 OLMoE-1B-7B 专家混合LLM,在学术基准和人工评估方面的性能几乎与 GPT-4V 相当。
Molmo-7B 模型在学术基准和人类评估中都表现在 GPT-4V 和 GPT-4o 之间,并且在这两个基准上的表现都明显优于最近发布的 Pixtral 12B 模型。
Molmo 模型 Molmo-72B 获得了最高的学术基准分数,在人类评估中排名第二,仅略低于 GPT-4o。
官方博文:https://molmo.allenai.org/blog
模型下载地址:https://huggingface.co/collections/allenai/molmo-66f379e6fe3b8ef090a8ca19
在线体验:https://molmo.allenai.org/
微信扫描下方的二维码阅读本文
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
评论(0)