我们最近发布了Redis Copilot,以帮助开发者更快地使用Redis构建应用。我们的使命是使应用程序快速运行,并简化构建过程。为此,Redis Copilot作为您的AI助手,能够让您更迅速地完成与Redis相关的任务。您今天就可以在Redis Insight中开始使用它。
Redis Copilot帮助您使用Redis进行构建,以便您可以:
- 通过Copilot对Redis文档的最新知识获取合格的答案。
- 生成代码片段,帮助您更快地开发基于Redis的应用程序。
- 通过生成和执行查询来回答关于您的数据的问题。
Copilot是基于Redis for AI的能力构建的,Redis使得应用快速运行。我们知道,在构建Copilot时,它需要提供快速、准确的答案,并且可以扩展到全球使用。因此,我们使用Redis来提供用户期望从Redis驱动的应用程序中获得的良好用户体验。我们提供了许多特定于构建AI应用程序的组件,但具有更多功能。
对于希望了解如何在AI应用程序中最佳使用Redis的众多客户,我们将分解您可以使用Redis让应用程序快速高效的方法。最快的向量数据库支持RAG(Retrieval-Augmented Generation),以提供更好的答案。RAG方法由Meta在2020年提出,允许大型语言模型(LLMs)通过检索机制融入外部知识源,从而扩展最新的信息能力。这使得语言模型能够实时提供更好的答案。Redis作为一个实时向量数据库,可以实时搜索数百万个嵌入向量,以确保根据用户提示提供并嵌入相关上下文信息。
Redis Copilot利用RAG和我们的向量数据库从文档中检索相关信息,以帮助回答您的问题。根据我们的基准测试,这是最快的向量数据库,加上RAG,我们可以使用最新版本的文档——因此您总是可以获得关于Redis问题的最新答案。
大型语言模型的记忆使得响应更加相关。Redis通过使用首选的数据类型促进整个对话历史(记忆)的保留。无论是使用普通列表保存交互的顺序,还是将交互存储为向量嵌入,我们在您使用Redis Copilot时都增强了交互质量和定制化。当Redis Copilot调用一个大型语言模型时,它会添加相关记忆,以提供更好的响应。这使得在对话中的主题转换平滑,并减少了误解。
语义缓存节省成本并加快响应速度。从大型语言模型生成响应可能会带来大量的计算开销。Redis通过将输入提示和响应存储在缓存中,并使用向量搜索检索它们,减少了与机器学习驱动的应用程序相关的总体费用。
此外,全文和多面搜索有助于浏览文档以获取特定结果;而Redis被用作微服务之间的消息代理,限流使得应用程序稳定可靠。
您今天就可以开始使用Copilot。只需下载Redis Insight,用云账户登录,然后开始构建。如果您想构建自己的AI应用程序,我们提供各种AI资源,以帮助您快速构建AI应用程序,包括我们的RedisVL库。您可以从我们的示例仓库Minipilot开始,它是Redis Copilot的一个简化版本。要与代表讨论Redis如何帮助您构建AI应用程序,请预订会议。
相关资源:
- Redis for AI
- Redis Insight
- AI资源