本地大模型编程实战(32)用websocket显示大模型的流式输出

在与 LLM(大语言模型) 对话时,如果每次都等 LLM 处理完毕再返回给客户端,会显得比较卡顿,不友好。如何能够像主流的AI平台那样:可以一点一点吐出字符呢? 本文将模仿后端流式输出文字,前端一块一块的显示文字。主要的实现路径是: LLM 采用 qwen3 ,使用 stream 方式输出 后端使用 langchain 框架 使用 fastapi 实现后端接口 前后端之间使用 websocket 长连接通信 前端使用一个简单的 html5 网页做演示 下面是最终实现的效果: ...

四月 27, 2025 · 2 分钟 · 火云

基于FastAPI和JWT实现OAuth2用户认证

本文阐述了如何基于FastAPI框架实现 OAuth2用户认证,其中使用哈希算法对密码进行了加密,使用 JWT 持有令牌。 附带完整的代码,避免大家再次踩坑。 ...

十二月 1, 2024 · 4 分钟 · 火云

使用FastAPI实现简单的OAuth2的Password和Bearer验证

本文讲述了基于FastAPI框架,实现实现简单的OAuth2的Password和Bearer验证。 附带完整的代码,避免大家再次踩坑。 ...

十二月 1, 2024 · 3 分钟 · 火云

使用FastAPI实现微服务API网关

本文阐述了基于FastAPI实现一个API网关的详细步骤,这样未来可以不断的在服务端像搭积木一样添加各种服务。 我们即将实现下面的简单的微服务架构,目前它只实现了请求转发功能: ...

十一月 14, 2024 · 2 分钟 · 火云

用FastAPI做langchain本地大模型的API

本文讲述了如何使用FastAPI和langchain框架,包装本地大模型llama3.1,实现语言翻译功能的API。 相对于 Flask ,使用FastAPI做接口要简便得多。 ...

十一月 5, 2024 · 2 分钟 · 火云