用流式传输协议接入百度大模型的心得以及一些相关 bug 的解决方案
前言
近日开发了一个基于AI的虚假数据生成工具:still-soda/ai-mock-generator-react-web: 一个用于生成测试用虚假数据的工具。
项目地址是:汽水工具箱 | 智能 mock 生成
然后有使用者提出了反馈:生成速度太慢了。
这个慢固然是改变不了了,因为AI的生成速度就摆在那了,但是使用流式传输可以缓解等待过程中的焦虑,于是花了几个小时把原有的生成逻辑改成了应用流式传输的模式。
接入流式传输
大模型的接口都有提供流式传输的模式,首先通过 fetch
获取 reader
,然后不断读取并用 TextDecoder
将数据转成文本,直到 done === true
即可。
async function getData() {
const res = await fetch(url, {/* ... */}); // 请求流式传输
const reader = res.body.getReader(); // 获取读头
const decoder = new TextDecoder('utf-8'); // 创建解码器
while (true) {
const { done, value } = await reader.read();
if (done)
return;
const str = decoder.decode(value);
// 处理获取的文本
}
}
一些 bug
用Nginx做服务器并配置转发,流式传输失效
原因是 Nginx 在转发服务中会先缓存请求的响应,然后在请求结束后再一起发给客户端,这就导致流式传输完全失效。
解决方法就是在 Nginx 相关的转发配置下禁用缓存:
location /api/
{
proxy_pass http://localhost:4817/; # 转发服务
proxy_buffering off; // 禁用缓冲
proxy_cache off; // 禁用缓存(如果启用了缓存)
}
明明后端服务器已经启动,但是在访问接口的时候响应 “Cannot POST /api/token”
原因是我在 Nginx 配置转发服务的时候 proxy_pass
最后没有加上 /
:
proxy_pass http://localhost:4817; // 错误的
proxy_pass http://localhost:4817/; // 正确的
也有可能是因为服务并没有启动 …