• 我的订阅
  • 科技

kimi开放平台contextcaching功能将启动内测

类别:科技 发布时间:2024-06-20 10:35:00 来源:浅语科技

6月19日消息,月之暗面官宣Kimi开放平台ContextCaching功能将启动内测,届时将支持长文本大模型,可实现上下文缓存功能。

kimi开放平台contextcaching功能将启动内测

▲图源Kimi开放平台官方公众号,下同

据介绍,ContextCaching(上下文缓存)是由Kimi开放平台提供的一项高级功能,可通过缓存重复的Tokens内容,降低用户在请求相同内容时的成本,原理如下:

kimi开放平台contextcaching功能将启动内测

官方表示,ContextCaching 可提升API的接口响应速度(或首字返回速度)。在规模化、重复度高的prompt场景,ContextCaching功能带来的收益越大。

ContextCaching适合于用频繁请求,重复引用大量初始上下文的情况,通过重用已缓存的内容,可提高效率降低费用,适用业务场景如下:

提供大量预设内容的QABot,例如KimiAPI小助手。

针对固定的文档集合的频繁查询,例如上市公司信息披露问答工具。

对静态代码库或知识库的周期性分析,例如各类CopilotAgent。

瞬时流量巨大的爆款AI应用,例如哄哄模拟器,LLMRiddles。

交互规则复杂的Agent类应用,例如什么值得买Kimi+等。

官方后续将发布ContextCaching功能的场景最佳实践/计费方案/技术文档

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-06-20 12:45:03

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

谷歌「诚意之作」,开源9B、27B版Gemma2,主打高效、经济!
...发者提供了前段时间在I/O大会上官宣的Gemini 1.5 Pro的200万上下文窗口访问权限、Gemini API的代码执行功能
2024-06-29 09:37:00
Mamba再次挑战霸主Transformer!首个通用Mamba开源大模型一鸣惊人
...有效地捕获其关系。这种通过比较文本中每个token来理解上下文的方式,需要更多的计算能力和内存来处理不断增长的上下文窗口。如果资源没有相应扩展,推理速度会变慢,最终无法处理超
2024-08-14 09:43:00
陈天奇团队LLM结构化生成新引擎XGrammar:百倍加速、近零开销
...就是遵循某个特定格式(如 JSON、SQL 等)的数据。但使用上下文无关语法(CFG)来进行约束解码的方法并不高效
2024-11-27 13:37:00
技术解读: vCPU 从 SMP 走向 Hybrid
...可以同时出现母机和子机中,核心思路是基于当前任务的上下文在下一次调度决策前更新其调度上下文。它需要实现特性匹配,在主机侧需要用一种通用的方式完成 vCPU 与 pCPU 的灵
2023-06-30 11:01:00
rtxai助手的进化
...Assist项目可接收玩家的语音或文字输入内容,游戏窗口的上下文信息,并通过AI视觉模型处理数据。这些模型增强了与游戏知识数据库相连的大语言模型(LLM)的上下文感知和对特定
2024-06-07 04:47:00
CMU副教授:在多智能体流行的当下,不要忽视单智能体系统
...完全匹配时,效果会很好,但问题是如果不匹配怎么办?上下文信息的传递:多智能体系统通常在多个智能体之间传递信息,但这可能是信息丢失的原因。例如,如果故障定位器仅将其摘要信息传递
2024-10-11 12:03:00
Anthropic开源MCP:大模型接入数据有了“统一插头”,Agent平台慌了?
...Slack、GitHub等平台的数据了。近日,Anthropic开源了“模型上下文协议”(MCP),该协议将大模型直接连接至数据源
2024-11-27 13:33:00
Kimi爆火出圈,国产大模型首次超越海外!
2024年3月18日,国产AI大模型Kimi将上下文无损输入长度提升至200万字,成为国内大模型首次在部分能力上超越海外主流产品的里程碑。上下文输入长度的增加能够帮助模型更好学习
2024-04-02 18:31:00
谷歌Gemini宣布上线全局记忆功能:可回忆曾经所有对话
...话题。Gemini AI凭借对先前对话内容的深刻记忆,自动衔接上下文,显著简化了人机交互流程,提升了效率与便捷性。对于想要查看过往聊天内容的用户,Gemini迅速响应,不仅提
2025-02-14 08:51:00
更多关于科技的资讯: