UI-TARS,字节跳动开源的原生图形用户界面(GUI)代理模型,设计用于使用类似人类的感知、推理和行动能力与图形用户界面无缝交互。

UI-TARS 将所有关键组件——感知、推理、接地和记忆——集成在一个视觉语言模型(VLM)中,从而实现端到端的任务自动化,无需预定义的工作流或手动规则。

UI-TARS,字节跳动开源的原生图形用户界面(GUI)代理模型,设计用于使用类似人类的感知、推理和行动能力与图形用户界面无缝交互插图

Github地址:https://github.com/bytedance/UI-TARS

论文地址:https://arxiv.org/abs/2501.12326

模型下载地址:https://huggingface.co/bytedance-research/UI-TARS-7B-SFT

在线体验:https://huggingface.co/spaces/Aheader/gui_test_app



微信扫描下方的二维码阅读本文

UI-TARS,字节跳动开源的原生图形用户界面(GUI)代理模型,设计用于使用类似人类的感知、推理和行动能力与图形用户界面无缝交互插图1

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。