
vercel ai sdk 可以轻松与 openai、anthropic 等 llm api 进行交互,并传输数据,以便在加载时快速显示在您的 web 应用程序中。在本文中,我们将学习如何同时运行多个提示并并行查看它们的结果。
tl;dr:github 存储库在这里。
我为什么要这样做?
在 web 应用程序中同时运行多个数据获取请求并不罕见。例如,在假设的博客系统中,当仪表板界面加载时,我们可能希望同时获取用户的个人资料数据、他们创建的帖子以及他们喜欢的其他用户的帖子。
如果同一个仪表板同时向 openai 发出请求,我们可能希望同时向 openai 询问有关改善用户个人资料的提示,并同时分析他们的最新帖子。理论上,如果我们愿意的话,我们可以并行使用数十个人工智能请求(即使来自完全不同的平台和模型),并分析信息、生成内容并同时执行所有类型的其他任务。
安装与设置
您可以在此处克隆包含最终结果的 github 存储库。
从头开始设置:
遵循 next.js app router 快速入门。 只是基础知识;生成应用程序、安装依赖项并添加您的 openai api 密钥。安装并设置 shadcn/ui。
设置基本 ui
完成所有工作的主要组件将包含一个表单和一些用于输出的容器。使用一些基本的 shadcn-ui 组件,表单将如下所示:
行者AI
行者AI绘图创作,唤醒新的灵感,创造更多可能
100 查看详情
export function generationform() { // state and other info will be defined here... return ( {isgenerating ? ( ) : null} historical weather
{weather ? weather : null} historical news
{news ? news : null} )}
你可以看到我们这里有一些东西:
表格加载动画(以及用于显示/隐藏它的 isgenerate 标志)用于渲染天气内容的容器用于渲染新闻内容的容器
现在您可以对这些值进行硬编码;它们都会从我们的信息流中删除。
设置 react 服务器组件 (rsc)
streamanswer 服务器操作将完成创建和更新我们的流的工作。
动作的结构是这样的:
export async function streamanswer(question: string) { // booleans for indicating whether each stream is currently streaming const isgeneratingstream1 = createstreamablevalue(true); const isgeneratingstream2 = createstreamablevalue(true); // the current stream values const weatherstream = createstreamablevalue(""); const newsstream = createstreamablevalue(""); // create the first stream. notice that we don't use await here, so that we // don't block the rest of this function from running. streamtext({ // ... params, including the llm prompt }).then(async (result) => { // read from the async iterator. set the stream value to each new word // received. for await (const value of result.textstream) { weatherstream.update(value || ""); } } finally { // set isgenerating to false, and close that stream. isgeneratingstream1.update(false); isgeneratingstream1.done(); // close the given stream so the request doesn't hang. weatherstream.done(); } }); // same thing for the second stream. streamtext({ // ... params }).then(async (result) => { // ... }) // return any streams we want to read on the client. return { isgeneratingstream1: isgeneratingstream1.value, isgeneratingstream2: isgeneratingstream2.value, weatherstream: weatherstream.value, newsstream: newsstream.value, };}
编写客户端代码
表单的 onsubmit 处理程序将完成这里的所有工作。以下是其工作原理的详细说明:
"use client";import { SyntheticEvent, useState } from "react";import { Button } from "./ui/button";import { readStreamableValue, useUIState } from "ai/rsc";import { streamAnswer } from "@/app/actions";import { Spinner } from "./svgs/Spinner";export function GenerationForm() { // State for loading flags const [isGeneratingStream1, setIsGeneratingStream1] = useState(false); const [isGeneratingStream2, setIsGeneratingStream2] = useState(false); // State for the LLM output streams const [weather, setWeather] = useState(""); const [news, setNews] = useState(""); // We'll hide the loader when both streams are done. const isGenerating = isGeneratingStream1 || isGeneratingStream2; async function onSubmit(e: SyntheticEvent) { e.preventDefault(); // Clear previous results. setNews(""); setWeather(""); // Call the server action. The returned object will have all the streams in it. const result = await streamAnswer(question); // Translate each stream into an async iterator so we can loop through // the values as they are generated. const isGeneratingStream1 = readStreamableValue(result.isGeneratingStream1); const isGeneratingStream2 = readStreamableValue(result.isGeneratingStream2); const weatherStream = readStreamableValue(result.weatherStream); const newsStream = readStreamableValue(result.newsStream); // Iterate through each stream, putting its values into state one by one. // Notice the IIFEs again! As on the server, these allow us to prevent blocking // the function, so that we can run these iterators in parallel. (async () => { for await (const value of isGeneratingStream1) { if (value != null) { setIsGeneratingStream1(value); } } })(); (async () => { for await (const value of isGeneratingStream2) { if (value != null) { setIsGeneratingStream2(value); } } })(); (async () => { for await (const value of weatherStream) { setWeather((existing) => (existing + value) as string); } })(); (async () => { for await (const value of newsStream) { setNews((existing) => (existing + value) as string); } })(); } return ( // ... The form code from before. );}
其他有趣的事情可以尝试
使用streamobject()流式传输结构化json数据而不是文本并行传输更多内容同时从不同的 api 进行流式传输使用相同的提示流式传输不同模型进行比较(例如,cohere、anthropic、gemini 等)从服务器流式传输 ui(使用 createstreamableui() )
进一步阅读和链接
服务器操作和突变vercel ai sdkstreamtext() api 文档next.js 应用路由器快速入门
以上就是使用 Vercel AI SDK 实现多个并行 AI 流的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/473016.html
微信扫一扫
支付宝扫一扫