月之暗面官宣 Kimi 开放平台 Context Caching 功能将启动内测,届时将支持长文本大模型,可实现上下文缓存功能。

Kimi 开放平台将启动 Context Caching上下文缓存内测插图

据介绍,Context Caching(上下文缓存)是由 Kimi 开放平台提供的一项高级功能,可通过缓存重复的 Tokens 内容,降低用户在请求相同内容时的成本。

Context Caching 是一种缓存机制,它可以在应用程序的不同部分之间共享数据,以减少数据库调用和提高页面加载速度。这是通过在应用程序的后端保存和管理数据片段来实现的。对于规模化、重复度高的prompt场景,Context Caching功能的优势尤为显著。它能够迅速响应大量频繁的请求,并通过重用已缓存的内容,显著提升处理效率,同时降低费用。



微信扫描下方的二维码阅读本文

Kimi 开放平台将启动 Context Caching上下文缓存内测插图1

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。