LLaVA-Video,开源的视频多模态LMM,同时开源了视频训练数据集。

LLaVA-Video,开源的视频多模态LMM,同时开源了视频训练数据集插图

可以自动生成视频详细描述,对于选定的视频,我们使用 GPT-4o 来系统地描述其内容。

可以自动生成视频问答,参考公共视频问答基准测试,将这些问题分为 16 个特定类别,给定详细的视频描述,我们使用 GPT-4o 为每种类型的问题最多生成一个问答对。

项目地址:https://llava-vl.github.io/blog/2024-09-30-llava-video/

Github地址:https://github.com/LLaVA-VL/LLaVA-NeXT

论文地址:http://arxiv.org/abs/2410.02713

模型下载地址:https://huggingface.co/collections/lmms-lab/llava-video-661e86f5e8dabc3ff793c944



微信扫描下方的二维码阅读本文

LLaVA-Video,开源的视频多模态LMM,同时开源了视频训练数据集插图1

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。