<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>LLM(大语言模型) on 有趣的AI</title>
    <link>http://www.wfcoding.com/tags/llm%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B/</link>
    <description>Recent content in LLM(大语言模型) on 有趣的AI</description>
    <generator>Hugo -- 0.125.7</generator>
    <language>zh</language>
    <copyright>火云</copyright>
    <lastBuildDate>Wed, 08 Oct 2025 00:00:00 +0000</lastBuildDate>
    <atom:link href="http://www.wfcoding.com/tags/llm%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>[合集]本地大模型编程实战</title>
      <link>http://www.wfcoding.com/articles/practice/03%E6%9C%AC%E5%9C%B0%E5%A4%A7%E6%A8%A1%E5%9E%8B%E7%BC%96%E7%A8%8B%E5%AE%9E%E6%88%98/</link>
      <pubDate>Thu, 23 Jan 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/03%E6%9C%AC%E5%9C%B0%E5%A4%A7%E6%A8%A1%E5%9E%8B%E7%BC%96%E7%A8%8B%E5%AE%9E%E6%88%98/</guid>
      <description>&lt;p&gt;此系列文章讲述了：如何在普通电脑上自己写代码完成常见的基于大语言模型能力的任务。&lt;/p&gt;</description>
    </item>
    <item>
      <title>[合集]从零搭建langchain&#43;本地大模型&#43;本地矢量数据库的RAG系统</title>
      <link>http://www.wfcoding.com/articles/practice/01%E4%BB%8E%E9%9B%B6%E6%90%AD%E5%BB%BAlangchain&#43;%E6%9C%AC%E5%9C%B0%E5%A4%A7%E6%A8%A1%E5%9E%8B&#43;%E6%9C%AC%E5%9C%B0%E7%9F%A2%E9%87%8F%E6%95%B0%E6%8D%AE%E5%BA%93%E7%9A%84rag%E7%B3%BB%E7%BB%9F/</link>
      <pubDate>Thu, 10 Oct 2024 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/01%E4%BB%8E%E9%9B%B6%E6%90%AD%E5%BB%BAlangchain&#43;%E6%9C%AC%E5%9C%B0%E5%A4%A7%E6%A8%A1%E5%9E%8B&#43;%E6%9C%AC%E5%9C%B0%E7%9F%A2%E9%87%8F%E6%95%B0%E6%8D%AE%E5%BA%93%E7%9A%84rag%E7%B3%BB%E7%BB%9F/</guid>
      <description>&lt;p&gt;此系列文章详细的阐述了如何从第一行代码开始搭建一个可以运行完全在本地服务器的&lt;code&gt;RAG&lt;/code&gt;(&lt;code&gt;Retrieval Augmented Generation&lt;/code&gt;)系统，包含了详细的步骤说明和代码，它是保姆级教程。&lt;br&gt;
它主要包含以下功能：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;使用本地大语言模型做语言翻译&lt;/li&gt;
&lt;li&gt;使用本地大语言模型做专业领域的知识问答&lt;/li&gt;
&lt;/ul&gt;
&lt;div style=&#34;position:relative;width:100%;height:315px;&#34;&gt;
  &lt;iframe src=&#34;assert/vuetify_langchian_rag_demo.mp4&#34; style=&#34;position:absolute;top:0;left:0;width:100%;height:100%;&#34; frameborder=&#34;0&#34; allowfullscreen&gt;&lt;/iframe&gt;
&lt;/div&gt;
&lt;p&gt;从系统架构来看，本系统包含了前端、API网关、后台服务三大部分：
&lt;img loading=&#34;lazy&#34; src=&#34;assert/arch.png&#34; alt=&#34;基本架构&#34;  /&gt;
&lt;/p&gt;</description>
    </item>
    <item>
      <title>【保姆级教程】自己搭建AI大模型实验室</title>
      <link>http://www.wfcoding.com/articles/deploy/d05/</link>
      <pubDate>Wed, 08 Oct 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/deploy/d05/</guid>
      <description>&lt;blockquote&gt;
&lt;p&gt;如果我比别人看得更远，那是因为我站在巨人的肩上。 &amp;ndash; 艾萨克·牛顿&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;不知道您是否像我一样：希望自己能有一个完全本地部署的AI实验室，它有可视化界面，可以与大模型聊天，可以做智能体，还可以提供标准化的接口&amp;hellip;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;&lt;a href=&#34;https://github.com/chatboxai/chatbox&#34;&gt;Chatbox&lt;/a&gt;&lt;/strong&gt;、&lt;strong&gt;&lt;a href=&#34;https://github.com/langgenius/dify&#34;&gt;Dify&lt;/a&gt;&lt;/strong&gt;、&lt;strong&gt;&lt;a href=&#34;https://ollama.com/&#34;&gt;Ollama&lt;/a&gt;&lt;/strong&gt; 与 Qwen（通义千问）大模型完全可以整合在一起，且整合后能形成 “本地模型 + 可视化开发管理 + 多端交互” 的完整 AI 应用链路。四者的定位互补性强，整合核心逻辑是 &lt;strong&gt;Ollama 负责本地运行 Qwen 模型 → Dify 提供模型管理与应用开发能力 → Chatbox 作为轻量客户端实现多端交互&lt;/strong&gt;：&lt;/p&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;系统/模型&lt;/th&gt;
&lt;th&gt;核心定位&lt;/th&gt;
&lt;th&gt;关键角色&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Ollama&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;轻量本地大模型运行框架&lt;/td&gt;
&lt;td&gt;「模型载体」：简化本地模型部署，支持一键启动 Qwen、Llama 等开源模型，提供 API 接口供外部调用&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Qwen（通义千问）&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;阿里开源大模型（如 Qwen-8B/14B）&lt;/td&gt;
&lt;td&gt;「核心能力源」：提供对话、生成、推理等 AI 能力，需依赖 Ollama 或其他框架运行&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Dify&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;开源 LLM 应用开发平台&lt;/td&gt;
&lt;td&gt;「开发与管理中枢」：支持接入 Ollama 部署的 Qwen 模型，提供可视化 workflow、RAG 检索、Agent 工具链，可快速搭建 AI 应用（如问答系统、智能助手）&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;Chatbox&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;多端 AI 客户端&lt;/td&gt;
&lt;td&gt;「交互入口」：支持接入 Dify 或 Ollama 的 API，提供桌面（Windows/Mac/Linux）、移动端（iOS/Android）的轻量交互界面，优化用户使用体验&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;下面我们就一步一步的把这个AI实验室搭建起来。&lt;/p&gt;</description>
    </item>
    <item>
      <title>【保姆级教程】用dify搭建智能体Agent</title>
      <link>http://www.wfcoding.com/articles/deploy/d04/</link>
      <pubDate>Tue, 07 Oct 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/deploy/d04/</guid>
      <description>&lt;p&gt;&lt;a href=&#34;https://github.com/langgenius/dify&#34;&gt;&lt;strong&gt;dify&lt;/strong&gt;&lt;/a&gt; 是一个开源的 LLM 应用开发平台，其核心功能包括：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;工作流：可在画布上构建和测试强大的 AI 工作流程。&lt;/li&gt;
&lt;li&gt;全面的模型支持：与数百种专有 / 开源 LLMs 及数十种推理提供商和自托管解决方案无缝集成，支持 GPT、Mistral、Llama3、qwen 等及任何与 OpenAI API 兼容的模型。&lt;/li&gt;
&lt;li&gt;Prompt IDE：提供直观界面，用于制作提示、比较模型性能及为聊天类应用添加文本转语音等功能。&lt;/li&gt;
&lt;li&gt;RAG Pipeline：具备广泛的 RAG 功能，涵盖文档摄入到检索，支持从 PDF、PPT 等常见文档格式提取文本。&lt;/li&gt;
&lt;li&gt;Agent 智能体：可基于 LLM 函数调用或 ReAct 定义 Agent，提供 50 多种内置工具如谷歌搜索、DALL・E 等。&lt;/li&gt;
&lt;li&gt;LLMOps：能监测和分析应用日志与性能，基于生产数据和注释持续改进提示、数据集及模型。&lt;/li&gt;
&lt;li&gt;Backend-as-a-Service：所有功能都提供 API，便于将 Dify 集成到自有业务逻辑中。&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;本文将把详细的讲述搭建 &lt;strong&gt;dify&lt;/strong&gt; 并且用它的 &lt;code&gt;Chatflow&lt;/code&gt; 搭建智能体应用的过程。&lt;/p&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(38)实现一个通用的大模型客户端</title>
      <link>http://www.wfcoding.com/articles/practice/0338/</link>
      <pubDate>Tue, 23 Sep 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0338/</guid>
      <description>&lt;p&gt;由于大部分AI平台提供的API/接口都兼容 &lt;code&gt;OpenAI API&lt;/code&gt; ,所以我们可以使用 &lt;code&gt;OpenAI SDK&lt;/code&gt; 实现通用的 &lt;code&gt;LLM（大语言模型）&lt;/code&gt; 客户端。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;关于 &lt;code&gt;OpenAI API&lt;/code&gt; 更多内容，可参考 &lt;a href=&#34;http://wfcoding.com/articles/programmer/p07/&#34;&gt;程序员应该熟悉的概念(2)OpenAI API&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;本文讲述了如何实现一个简单的&lt;strong&gt;大模型客户端&lt;/strong&gt;。&lt;/p&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(33)用SSE实现大模型的流式输出</title>
      <link>http://www.wfcoding.com/articles/practice/0333/</link>
      <pubDate>Mon, 01 Sep 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0333/</guid>
      <description>&lt;p&gt;SSE(Server-Sent Events)是一种基于 HTTP 协议的服务器向客户端单向推送数据的技术，允许服务器主动向已建立连接的客户端持续发送事件流（如实时通知、更新数据等），无需客户端频繁轮询。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;核心特点&lt;/strong&gt;：基于 HTTP 长连接，单向通信（仅服务器→客户端），数据以 “事件” 格式传输（包含事件类型、数据体等结构化信息），天然支持断线重连。&lt;br&gt;
&lt;strong&gt;典型场景&lt;/strong&gt;：大语言模型（LLM）客户端、股票行情实时更新、新闻推送、系统通知等只需服务器主动下发数据的场景。&lt;/p&gt;
&lt;p&gt;它与websocket的主要区别是：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;若场景仅需 “服务器推数据给客户端”（单向），优先选 SSE（实现简单、基于 HTTP 无额外协议成本）&lt;/li&gt;
&lt;li&gt;若需 “客户端与服务器实时双向通信”（如聊天、互动），必须选 WebSocket（全双工能力是核心优势）&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;下面我们使用大语言模型&lt;strong&gt;qwen3&lt;/strong&gt;实现翻译功能。它可以自动识别源语言，并翻译为目标语种。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;像千问这种大模型是基于多语言训练的，所以它支持中文、英文、法文、西班牙等多个语种的翻译。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;这是实现的效果：
&lt;img loading=&#34;lazy&#34; src=&#34;assert/demo.gif&#34; alt=&#34;前端显示LLM(大语言模型)的流式输出内容&#34;  /&gt;
&lt;/p&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(32)用websocket显示大模型的流式输出</title>
      <link>http://www.wfcoding.com/articles/practice/0332/</link>
      <pubDate>Sun, 27 Apr 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0332/</guid>
      <description>&lt;p&gt;在与 &lt;code&gt;LLM(大语言模型)&lt;/code&gt; 对话时，如果每次都等 &lt;code&gt;LLM&lt;/code&gt; 处理完毕再返回给客户端，会显得比较卡顿，不友好。如何能够像主流的AI平台那样：可以一点一点吐出字符呢？&lt;br&gt;
本文将模仿后端流式输出文字，前端一块一块的显示文字。主要的实现路径是：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;LLM&lt;/code&gt; 采用 &lt;code&gt;qwen3&lt;/code&gt; ，使用 &lt;code&gt;stream&lt;/code&gt; 方式输出&lt;/li&gt;
&lt;li&gt;后端使用 &lt;code&gt;langchain&lt;/code&gt; 框架&lt;/li&gt;
&lt;li&gt;使用 &lt;code&gt;fastapi&lt;/code&gt; 实现后端接口&lt;/li&gt;
&lt;li&gt;前后端之间使用 &lt;strong&gt;&lt;code&gt;websocket&lt;/code&gt;&lt;/strong&gt; 长连接通信&lt;/li&gt;
&lt;li&gt;前端使用一个简单的 &lt;code&gt;html5&lt;/code&gt; 网页做演示&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;下面是最终实现的效果：
&lt;img loading=&#34;lazy&#34; src=&#34;assert/demo.gif&#34; alt=&#34;前端流式显示LLM(大语言模型)的流式输出内容&#34;  /&gt;
&lt;/p&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(31)用Map-Reduce从大文本中提取摘要</title>
      <link>http://www.wfcoding.com/articles/practice/0331/</link>
      <pubDate>Sat, 26 Apr 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0331/</guid>
      <description>&lt;p&gt;在执行从文本中提取摘要的任务时，难免遇到大文本的情况：文本的长度超出了 &lt;code&gt;LLM(大语言模型)&lt;/code&gt; 的token限制。&lt;br&gt;
&lt;code&gt;LangGraph&lt;/code&gt; 提供了 &lt;code&gt;map-reduce&lt;/code&gt; 工作流，它先把大文本拆成小文档分别提取摘要，然后再提炼/压缩提取的摘要，直到最后提取的摘要的token长度满足既定要求。&lt;/p&gt;
&lt;p&gt;&lt;img loading=&#34;lazy&#34; src=&#34;image/01.png&#34; alt=&#34;LangGraph的map-reduce工作流&#34;  /&gt;
&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;本次演练使用 &lt;code&gt;qwen2.5:7b&lt;/code&gt; 开源大模型。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(30)从文本提取摘要</title>
      <link>http://www.wfcoding.com/articles/practice/0330/</link>
      <pubDate>Fri, 25 Apr 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0330/</guid>
      <description>&lt;p&gt;本文将演练如何使用 &lt;code&gt;LLM(大语言模型)&lt;/code&gt; 提取文本摘要。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;本次演练使用 &lt;code&gt;qwen2.5:7b&lt;/code&gt; 开源大模型。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(29)用大语言模型LLM查询图数据库NEO4J(2)</title>
      <link>http://www.wfcoding.com/articles/practice/0329/</link>
      <pubDate>Thu, 24 Apr 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0329/</guid>
      <description>&lt;blockquote&gt;
&lt;p&gt;上一篇文章 &lt;a href=&#34;http://wfcoding.com/articles/practice/0328/&#34;&gt;用大语言模型LLM查询图数据库NEO4J(1)&lt;/a&gt; 介绍了使用&lt;code&gt;GraphQACypherChain&lt;/code&gt;查询&lt;code&gt;NEO4J&lt;/code&gt;。用它实现简单快捷，但是不容易定制，在生产环境中可能会面临挑战。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;本文将基于&lt;code&gt;langgraph&lt;/code&gt; 框架，用&lt;code&gt;LLM(大语言模型)&lt;/code&gt;查询图数据库&lt;code&gt;NEO4J&lt;/code&gt;。它可以定义清晰复杂的工作流，能应对比较复杂的应用场景。&lt;/p&gt;
&lt;p&gt;以下是即将实现的可视化&lt;code&gt;LangGraph&lt;/code&gt;流程：&lt;/p&gt;
&lt;p&gt;&lt;img loading=&#34;lazy&#34; src=&#34;image/01.jpg&#34; alt=&#34;LangGraph查询图数据库NEO4J&#34;  /&gt;
&lt;/p&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(28)用大语言模型LLM查询图数据库NEO4J(1)</title>
      <link>http://www.wfcoding.com/articles/practice/0328/</link>
      <pubDate>Wed, 23 Apr 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0328/</guid>
      <description>&lt;p&gt;本文将基于&lt;code&gt;langchain&lt;/code&gt; 框架，用&lt;code&gt;LLM(大语言模型)&lt;/code&gt;查询图数据库&lt;code&gt;NEO4J&lt;/code&gt;。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;使用 &lt;code&gt;qwen2.5&lt;/code&gt; 做实验，用 &lt;code&gt;llama3.1&lt;/code&gt; 查不出内容。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(27)初探langgraph的流式输出</title>
      <link>http://www.wfcoding.com/articles/practice/0327/</link>
      <pubDate>Thu, 27 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0327/</guid>
      <description>&lt;p&gt;对于 &lt;code&gt;LLM(大语言模型)&lt;/code&gt;，流式传输已成为一种越来越受欢迎的功能。其理念是在 &lt;code&gt;LLM&lt;/code&gt; 生成令牌时就快速返回，而不是等待创建完整响应后再返回全部内容。&lt;/p&gt;
&lt;p&gt;在简单的场景中，流式传输实际上非常容易实现，但当涉及到智能体之类的应用时，它会变得复杂，这些智能体有自己的运行逻辑，可能会阻止我们尝试进行流式传输。&lt;/p&gt;
&lt;p&gt;本文将探讨 &lt;code&gt;langchain&lt;/code&gt; 的流式输出，后面将实现&lt;strong&gt;智能体最终结果的流式输出&lt;/strong&gt;。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;本次演练将全部使用 &lt;code&gt;qwen2.5:7b&lt;/code&gt; 开源大模型。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(26)用langgraph实现基于SQL数据构建的问答系统(5)</title>
      <link>http://www.wfcoding.com/articles/practice/0326/</link>
      <pubDate>Wed, 26 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0326/</guid>
      <description>&lt;p&gt;本文将扩展上一篇文章完成的 &lt;code&gt;langgraph&lt;/code&gt; 链，继续使用基于 &lt;code&gt;langgraph&lt;/code&gt; 链 ，对结构化数据库 &lt;code&gt;SQlite&lt;/code&gt; 进行查询的方法。该系统建立以后，我们不需要掌握专业的 &lt;code&gt;SQL&lt;/code&gt; 技能，可以用自然语言询问有关数据库中数据的问题并返回答案。主要完善一下两点内容：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;自动记录消息历史&lt;/li&gt;
&lt;li&gt;增加人工审核环节，防止 &lt;code&gt;LLM(大语言模型)&lt;/code&gt; 运行危险的SQL语句&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;我们先看看完成的 &lt;code&gt;langgraph&lt;/code&gt; 链的模样，主要有两步：创建SQL查询语句-&amp;gt;执行SQL查询语句，在执行SQL查询前中断进行人工审核，上一篇文章的 链 没有人工审核：&lt;/p&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th style=&#34;text-align:center&#34;&gt;&lt;img loading=&#34;lazy&#34; src=&#34;image/graph1.png&#34; alt=&#34;本次实现的链&#34;  /&gt;
&lt;/th&gt;
&lt;th style=&#34;text-align:center&#34;&gt;&lt;img loading=&#34;lazy&#34; src=&#34;image/graph2.png&#34; alt=&#34;上一篇文章实现的链&#34;  /&gt;
&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td style=&#34;text-align:center&#34;&gt;本次实现的链&lt;/td&gt;
&lt;td style=&#34;text-align:center&#34;&gt;上一篇文章实现的链&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;blockquote&gt;
&lt;p&gt;使用 &lt;code&gt;qwen2.5&lt;/code&gt; 、 &lt;code&gt;llama3.1&lt;/code&gt; 做实验。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;strong&gt;请注意&lt;/strong&gt;:&lt;br&gt;
构建 &lt;code&gt;SQL&lt;/code&gt; 数据库的问答系统需要执行模型生成的 &lt;code&gt;SQL&lt;/code&gt; 查询。这样做存在风险，请&lt;strong&gt;确保您的数据库连接权限始终尽可能小&lt;/strong&gt;，这将减轻（但不能消除）构建模型驱动系统的风险。&lt;/p&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(25)用langgraph实现基于SQL数据构建的问答系统(4)</title>
      <link>http://www.wfcoding.com/articles/practice/0325/</link>
      <pubDate>Tue, 25 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0325/</guid>
      <description>&lt;p&gt;本文将演练使用基于 &lt;code&gt;langgraph&lt;/code&gt; 链 ，对结构化数据库 &lt;code&gt;SQlite&lt;/code&gt; 进行查询的方法。该系统建立以后，我们不需要掌握专业的 &lt;code&gt;SQL&lt;/code&gt; 技能，可以用自然语言询问有关数据库中数据的问题并返回答案。&lt;br&gt;
使 &lt;code&gt;大语言模型(LLM)&lt;/code&gt; 查询结构化数据与非结构化文本数据有所不同。查询非结构化数据时，通常需要将待查询的文本嵌入到向量数据库中；而查询结构化数据的方法则是让 &lt;code&gt;LLM&lt;/code&gt; 编写和执行 &lt;code&gt;DSL&lt;/code&gt;（例如 SQL）进行查询。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;在 &lt;a href=&#34;http://wfcoding.com/articles/practice/0322/&#34;&gt;用langchain实现基于SQL数据构建问答系统(1)&lt;/a&gt; 中，我们已经用 &lt;code&gt;langchain&lt;/code&gt; 的 &lt;code&gt;create_sql_query_chain&lt;/code&gt; 实现了类似功能，在本文结束后，我们将能看到它们之间的区别。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;我们先看看完成的 &lt;code&gt;langgraph&lt;/code&gt; 链的模样，情况一目了然，主要有两步：创建SQL查询语句-&amp;gt;执行SQL查询语句：&lt;br&gt;
&lt;img loading=&#34;lazy&#34; src=&#34;image/graph.png&#34; alt=&#34;查询架构&#34;  /&gt;
&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;使用 &lt;code&gt;qwen2.5&lt;/code&gt; 、 &lt;code&gt;deepseek&lt;/code&gt; 以及 &lt;code&gt;llama3.1&lt;/code&gt; 做实验。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;&lt;strong&gt;请注意&lt;/strong&gt;:&lt;br&gt;
构建 &lt;code&gt;SQL&lt;/code&gt; 数据库的问答系统需要执行模型生成的 &lt;code&gt;SQL&lt;/code&gt; 查询。这样做存在风险，请&lt;strong&gt;确保您的数据库连接权限始终尽可能小&lt;/strong&gt;，这将减轻（但不能消除）构建模型驱动系统的风险。&lt;/p&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(24)用智能体(Agent)实现智能纠错的SQL数据库问答系统(3)</title>
      <link>http://www.wfcoding.com/articles/practice/0324/</link>
      <pubDate>Mon, 24 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0324/</guid>
      <description>&lt;p&gt;本文将实现这样一个 &lt;code&gt;智能体(Agent)&lt;/code&gt; ：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;可以使用自然语言对 &lt;code&gt;SQLite&lt;/code&gt; 数据库进行查询。即：用户用自然语言提出问题，智能体也用自然语言根据数据库的查询结果回答问题。&lt;/li&gt;
&lt;li&gt;增加一个自动对查询中的专有名词进行纠错的工具，这将明显提升查询的准确性。&lt;/li&gt;
&lt;/ul&gt;
&lt;blockquote&gt;
&lt;p&gt;本次将使用 &lt;code&gt;qwen2.5&lt;/code&gt; 、 &lt;code&gt;llama3.1&lt;/code&gt; 做实验。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(23)用智能体(Agent)实现基于SQL数据构建问答系统(2)</title>
      <link>http://www.wfcoding.com/articles/practice/0323/</link>
      <pubDate>Sun, 23 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0323/</guid>
      <description>&lt;p&gt;本文将用 &lt;code&gt;智能体(Agent)&lt;/code&gt;  实现对 &lt;code&gt;SQLite&lt;/code&gt; 数据库的查询：用户用自然语言提出问题，智能体也用自然语言根据数据库的查询结果回答问题。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;本次将分别在英文、中文环境下，使用 &lt;code&gt;qwen2.5&lt;/code&gt; 、 &lt;code&gt;MFDoom/deepseek-r1-tool-calling:7b&lt;/code&gt; 以及 &lt;code&gt;llama3.1&lt;/code&gt; 做实验。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(22)用langchain实现基于SQL数据构建问答的系统(1)</title>
      <link>http://www.wfcoding.com/articles/practice/0322/</link>
      <pubDate>Wed, 19 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0322/</guid>
      <description>&lt;p&gt;使 &lt;code&gt;LLM(大语言模型)&lt;/code&gt; 系统能够查询结构化数据与非结构化文本数据在性质上可能不同。后者通常生成可在向量数据库中搜索的文本，而结构化数据的方法通常是让 &lt;code&gt;LLM&lt;/code&gt; 编写和执行 &lt;code&gt;DSL&lt;/code&gt;（例如 SQL）中的查询。&lt;br&gt;
我们将演练使用 &lt;code&gt;langchain&lt;/code&gt; 链 ，在结构化数据库 &lt;code&gt;SQlite&lt;/code&gt; 中的数据上创建问答系统的基本方法，该系统建立以后，我们用自然语言询问有关数据库中数据的问题并返回答案。&lt;br&gt;
后面我们将基于 &lt;code&gt;智能体(Agent)&lt;/code&gt; 实现类似功能，两者之间的主要区别在于：&lt;strong&gt;智能体可以根据需要多次循环查询数据库以回答问题&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;实现上述功能需要以下步骤：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;将问题转换为 &lt;code&gt;DSL&lt;/code&gt; 查询：模型将用户输入转换为 &lt;code&gt;SQL&lt;/code&gt; 查询；&lt;/li&gt;
&lt;li&gt;执行 &lt;code&gt;SQL&lt;/code&gt; 查询；&lt;/li&gt;
&lt;li&gt;回答问题：模型使用查询结果响应用户输入。
&lt;img loading=&#34;lazy&#34; src=&#34;image/qa.png&#34; alt=&#34;查询架构&#34;  /&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;blockquote&gt;
&lt;p&gt;使用 &lt;code&gt;qwen2.5&lt;/code&gt; 、 &lt;code&gt;deepseek&lt;/code&gt; 以及 &lt;code&gt;llama3.1&lt;/code&gt; 做实验。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(21)支持多参数检索的RAG(Retrieval Augmented Generation,检索增强生成)(5)</title>
      <link>http://www.wfcoding.com/articles/practice/0321/</link>
      <pubDate>Tue, 18 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0321/</guid>
      <description>&lt;p&gt;在实现 &lt;code&gt;RAG(Retrieval Augmented Generation,检索增强生成)&lt;/code&gt; 系统的时候，在检索（retrieve）知识库时通常一个参数。&lt;br&gt;
本文将演练更复杂一点的情况：通过两个参数进行知识库的检索。为此会在 &lt;code&gt;langgraph&lt;/code&gt;链 中增加一个 &lt;code&gt;analyze_query&lt;/code&gt; 节点，它用来基于用户问题推理检索的参数。&lt;/p&gt;
&lt;p&gt;本次构建的 &lt;code&gt;LangGraph&lt;/code&gt; 链结构如下图：
&lt;img loading=&#34;lazy&#34; src=&#34;image/graph.png&#34; alt=&#34;Langgraph RAG 链&#34;  /&gt;
&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;使用 &lt;code&gt;qwen2.5&lt;/code&gt; 、 &lt;code&gt;deepseek&lt;/code&gt; 以及 &lt;code&gt;llama3.1&lt;/code&gt; 做实验，用 &lt;code&gt;shaw/dmeta-embedding-zh&lt;/code&gt; 做中文嵌入和检索。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(20)用langgraph和智能体实现RAG(Retrieval Augmented Generation,检索增强生成)(4)</title>
      <link>http://www.wfcoding.com/articles/practice/0320/</link>
      <pubDate>Mon, 17 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0320/</guid>
      <description>&lt;p&gt;上一篇文章我们演练了一个 &lt;a href=&#34;http://wfcoding.com/articles/practice/0319/&#34;&gt;用 &lt;code&gt;langgraph&lt;/code&gt; 实现的 &lt;code&gt;RAG(Retrieval Augmented Generation,检索增强生成)&lt;/code&gt; 系统&lt;/a&gt;。本文将要在此基础上，增加自动记录聊天历史的功能，另外，我们还将使用一个 &lt;code&gt;Agent(智能体)&lt;/code&gt; 来实现几乎同样的功能，我们来一起体会一下用 &lt;code&gt;langgraph&lt;/code&gt; 和 &lt;code&gt;Agent(智能体)&lt;/code&gt; 实现 &lt;code&gt;RAG系统&lt;/code&gt; 的区别。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;本次构建的 &lt;code&gt;LangGraph&lt;/code&gt; 链结构如下图：
&lt;img loading=&#34;lazy&#34; src=&#34;image/graph.png&#34; alt=&#34;Langgraph RAG 链&#34;  /&gt;
&lt;br&gt;
如上图，query_or_respond 是一个条件节点，它通过能否根据用户的问题生成 工具调用（tool_calls） ，来判断是否需要检索矢量知识库：如果 工具调用 为空，则直接由大语言模型处理；否则通过 工具调用 调用 tools 进行检索。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;实现类似功能的智能体结构如下图：
&lt;img loading=&#34;lazy&#34; src=&#34;image/agent.png&#34; alt=&#34;智能体结构图&#34;  /&gt;
&lt;br&gt;
我们可以直观的发现：&lt;strong&gt;用 &lt;code&gt;Agent(智能体)&lt;/code&gt; 实现更加简单&lt;/strong&gt;。&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;blockquote&gt;
&lt;p&gt;使用 &lt;code&gt;qwen2.5&lt;/code&gt; 、 &lt;code&gt;deepseek&lt;/code&gt; 以及 &lt;code&gt;llama3.1&lt;/code&gt; 做实验，用 &lt;code&gt;shaw/dmeta-embedding-zh&lt;/code&gt; 做中文嵌入和检索。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(19)用langgraph实现RAG(Retrieval Augmented Generation,检索增强生成)(3)</title>
      <link>http://www.wfcoding.com/articles/practice/0319/</link>
      <pubDate>Sun, 16 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0319/</guid>
      <description>&lt;p&gt;上一篇文章我们演练了一个 &lt;a href=&#34;http://wfcoding.com/articles/practice/0318/&#34;&gt;用 &lt;code&gt;langgraph&lt;/code&gt; 实现的 &lt;code&gt;RAG(Retrieval Augmented Generation,检索增强生成)&lt;/code&gt; 系统&lt;/a&gt;。本文将要创建的系统将更加智能：如果在知识库中未找到靠谱的文档，则用 &lt;code&gt;LLM(大语言模型)&lt;/code&gt; 自身的能力弥补。&lt;br&gt;
另外，检索和生成部分增加了更多的细节控制。本次构建的 &lt;code&gt;LangGraph&lt;/code&gt; 链如下图：
&lt;img loading=&#34;lazy&#34; src=&#34;image/graph.png&#34; alt=&#34;Langgraph RAG 链&#34;  /&gt;
&lt;br&gt;
如上图，query_or_respond 是一个条件节点，它通过能否根据用户的问题生成 工具调用（tool_calls） ，来判断是否需要检索矢量知识库：如果 工具调用 为空，则直接由大语言模型处理；否则通过 工具调用 调用 tools 进行检索。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;使用 &lt;code&gt;qwen2.5&lt;/code&gt; 、 &lt;code&gt;deepseek&lt;/code&gt; 以及 &lt;code&gt;llama3.1&lt;/code&gt; 做实验，用 &lt;code&gt;shaw/dmeta-embedding-zh&lt;/code&gt; 做中文嵌入和检索。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(18)用langgraph实现RAG(Retrieval Augmented Generation,检索增强生成)(2)</title>
      <link>http://www.wfcoding.com/articles/practice/0318/</link>
      <pubDate>Sat, 15 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0318/</guid>
      <description>&lt;p&gt;本文将使用 &lt;code&gt;langgraph&lt;/code&gt; 实现一个简单的 &lt;code&gt;RAG(Retrieval Augmented Generation,检索增强生成)&lt;/code&gt; 系统。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;使用 &lt;code&gt;qwen2.5&lt;/code&gt; 、 &lt;code&gt;deepseek-r1&lt;/code&gt; 以及 &lt;code&gt;llama3.1&lt;/code&gt; 做实验，用 &lt;code&gt;shaw/dmeta-embedding-zh&lt;/code&gt; 做中文嵌入和检索。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(17)用langchain和智能体实现RAG(Retrieval Augmented Generation,检索增强生成)(1)</title>
      <link>http://www.wfcoding.com/articles/practice/0317/</link>
      <pubDate>Fri, 14 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0317/</guid>
      <description>&lt;p&gt;本文将用实际代码演练一个简单的 &lt;code&gt;RAG(Retrieval Augmented Generation,检索增强生成)&lt;/code&gt; 系统。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;使用 &lt;code&gt;qwen2.5&lt;/code&gt; 、 &lt;code&gt;deepseek-r1&lt;/code&gt; 以及 &lt;code&gt;llama3.1&lt;/code&gt; 做实验，用 &lt;code&gt;shaw/dmeta-embedding-zh&lt;/code&gt; 做中文嵌入和检索。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(16)在智能体中自动记录消息历史(3)</title>
      <link>http://www.wfcoding.com/articles/practice/0316/</link>
      <pubDate>Thu, 13 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0316/</guid>
      <description>&lt;p&gt;本文将基于上一篇文章完善 &lt;code&gt;Agent(智能体)&lt;/code&gt; ，主要完善的功能有：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;跟踪 &lt;code&gt;Agent(智能体)&lt;/code&gt; 的执行过程&lt;/li&gt;
&lt;li&gt;记录消息历史&lt;/li&gt;
&lt;/ul&gt;
&lt;blockquote&gt;
&lt;p&gt;此次我们使用 &lt;code&gt;qwen2.5&lt;/code&gt; 做 &lt;code&gt;LLM（大语言模型）&lt;/code&gt; 驱动 &lt;code&gt;Agent(智能体)&lt;/code&gt; ，使用 &lt;code&gt;shaw/dmeta-embedding-zh&lt;/code&gt; 做中文嵌入和检索。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(15)可以调用两个工具的智能体Agent(2)</title>
      <link>http://www.wfcoding.com/articles/practice/0315/</link>
      <pubDate>Wed, 12 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0315/</guid>
      <description>&lt;p&gt;在上一篇文章中，我们实践了如何使用 &lt;code&gt;langchain&lt;/code&gt; 创建一个简单的 &lt;code&gt;ReAct Agent(智能体)&lt;/code&gt;，这次我们升级一下玩法：实现一个可以调用两个 工具 的智能体。&lt;br&gt;
其中一个工具用户查询天气预报，另外一个工具用来查询知识库，实际上该工具实现了 &lt;code&gt;RAG(Retrieval Augmented Generation,检索增强生成)&lt;/code&gt;。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;此次我们使用 &lt;code&gt;qwen2.5&lt;/code&gt;, &lt;code&gt;llama3.1&lt;/code&gt; 和 &lt;code&gt;deepseek&lt;/code&gt; 。感觉在处理中文方面，感觉 &lt;strong&gt;&lt;code&gt;qwen2.5&lt;/code&gt;&lt;/strong&gt; 比 &lt;code&gt;llama3.1&lt;/code&gt; 要好一些。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(14)初探智能体Agent(1)</title>
      <link>http://www.wfcoding.com/articles/practice/0314/</link>
      <pubDate>Tue, 11 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0314/</guid>
      <description>&lt;p&gt;在前面的文章中，我们了解了 &lt;code&gt;LLM(大语言模型)&lt;/code&gt; 如何使用 &lt;code&gt;tool(工具)&lt;/code&gt; ，现在我们开始进一步，初探 &lt;code&gt;Agent(智能体)&lt;/code&gt; 的玩法。&lt;br&gt;
其中的 &lt;code&gt;tool(工具)&lt;/code&gt; 用于从矢量数据库中查询信息，这种方式在 &lt;code&gt;RAG(Retrieval Augmented Generation,检索增强生成)&lt;/code&gt; 也很常用。在这种场景中，能否准确的查询出有用信息很关键，为此我们本次将使用多种大模型进行对比演练。包括：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;多语言通用 &lt;code&gt;LLM&lt;/code&gt;: &lt;code&gt;llma3.1&lt;/code&gt; , &lt;code&gt;deepseek-r1&lt;/code&gt; , &lt;code&gt;qwen2.5&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;专用于嵌入检索的大模型： &lt;code&gt;shaw/dmeta-embedding-zh&lt;/code&gt; , &lt;code&gt;milkey/m3e&lt;/code&gt; , &lt;code&gt;mxbai-embed-large&lt;/code&gt; , &lt;code&gt;nomic-embed-text&lt;/code&gt; , &lt;code&gt;all-minilm:33m&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;了解-agent智能体&#34;&gt;了解 &lt;code&gt;Agent(智能体)&lt;/code&gt;&lt;/h2&gt;
&lt;h3 id=&#34;tool工具-与-agent智能体-的区别&#34;&gt;&lt;code&gt;tool(工具)&lt;/code&gt; 与 &lt;code&gt;Agent(智能体)&lt;/code&gt; 的区别&lt;/h3&gt;
&lt;p&gt;工具往往用于大语言模型调用其它功能，比如：搜索、数据库查询、计算等；&lt;code&gt;Agent(智能体)&lt;/code&gt; 是一个可以使用 &lt;code&gt;LLM&lt;/code&gt; 处理复杂任务的智能体；它通常会决定：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;何时调用 &lt;code&gt;tool(工具)&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;选择哪个工具&lt;/li&gt;
&lt;li&gt;处理工具返回的结果&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id=&#34;reactreasoning--acting&#34;&gt;&lt;code&gt;ReAct（Reasoning + Acting）&lt;/code&gt;&lt;/h3&gt;
&lt;p&gt;&lt;code&gt;ReAct（Reasoning + Acting）&lt;/code&gt;是一种用于 &lt;code&gt;Agent(智能体)&lt;/code&gt; 的决策方式，它结合了&lt;strong&gt;推理（Reasoning）和行动（Acting）&lt;/strong&gt;，让智能体能更灵活地思考和执行任务。&lt;br&gt;
简单来说，&lt;code&gt;ReAct&lt;/code&gt; 让智能体在做事情之前，先&lt;strong&gt;思考一下&lt;/strong&gt;，然后再决定下一步行动，而不是盲目执行。&lt;/p&gt;
&lt;h3 id=&#34;react-的核心思路&#34;&gt;&lt;code&gt;ReAct&lt;/code&gt; 的核心思路&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;观察环境（Observations）&lt;/strong&gt;：获取当前任务或问题的信息。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;推理（Reasoning）&lt;/strong&gt;：分析当前信息，思考如何解决问题。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;执行行动（Acting）&lt;/strong&gt;：基于推理结果，采取具体的行动（比如调用工具、查询数据库、与用户交互等）。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;循环执行&lt;/strong&gt;：智能体会不断重复&lt;strong&gt;观察 → 推理 → 行动&lt;/strong&gt;的过程，直到任务完成。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;关于 &lt;code&gt;ReAct&lt;/code&gt; 的更多内容，请参阅：&lt;a href=&#34;https://klu.ai/glossary/react-agent-model&#34;&gt;ReACT Agent Model&lt;/a&gt;&lt;/p&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(13)与外部工具交互时注入参数(4)</title>
      <link>http://www.wfcoding.com/articles/practice/0313/</link>
      <pubDate>Mon, 10 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0313/</guid>
      <description>&lt;p&gt;在使用 &lt;code&gt;LLM(大语言模型)&lt;/code&gt; 调用工具方法时，可能会在运行时才会将类似 用户ID 的数值传递给工具。&lt;br&gt;
大多数情况下，此类值不应由 &lt;code&gt;LLM&lt;/code&gt; 控制。允许 &lt;code&gt;LLM&lt;/code&gt; 控制 用户ID &lt;strong&gt;可能会导致安全风险&lt;/strong&gt;。&lt;br&gt;
相反，&lt;code&gt;LLM&lt;/code&gt; 应该只控制本应由 &lt;code&gt;LLM&lt;/code&gt; 控制的工具参数，而其他参数（如用户ID）应由应用程序逻辑固定。&lt;/p&gt;
&lt;p&gt;本文将向您展示：如何防止大模型生成某些工具参数并&lt;strong&gt;在运行时直接注入&lt;/strong&gt;它们。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;本文使用 &lt;code&gt;llama3.1&lt;/code&gt; 和 &lt;code&gt;MFDoom/deepseek-r1-tool-calling:7b&lt;/code&gt; 进行演练。 &lt;code&gt;deepseek-r1&lt;/code&gt; 不支持 &lt;code&gt;langchain&lt;/code&gt; 的 bind_tools 方法。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(12)与外部工具交互时进行人工审核(3)</title>
      <link>http://www.wfcoding.com/articles/practice/0312/</link>
      <pubDate>Sun, 09 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0312/</guid>
      <description>&lt;p&gt;本文将实践如何在 &lt;code&gt;LLM(大语言模型)&lt;/code&gt; 调用工具函数时进行审核，即由人来确定是否应该调用工具函数。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;本次使用 &lt;code&gt;llama3.1&lt;/code&gt; 和 &lt;code&gt;MFDoom/deepseek-r1-tool-calling:7b&lt;/code&gt; 进行演练。 &lt;code&gt;deepseek-r1&lt;/code&gt; 不支持 &lt;code&gt;langchain&lt;/code&gt; 的 bind_tools 方法。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(11)用提示词提升与外部工具交互的能力并支持deepseek(2)</title>
      <link>http://www.wfcoding.com/articles/practice/0311/</link>
      <pubDate>Sat, 08 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0311/</guid>
      <description>&lt;p&gt;在使用 &lt;code&gt;LLM(大语言模型)&lt;/code&gt; 时，经常需要调用一些自定义的工具方法完成特定的任务，比如：执行一些特殊算法、查询天气预报、旅游线路等。&lt;br&gt;
很多大模型都具备使用这些工具方法的能力，&lt;code&gt;Langchain&lt;/code&gt; 也为这些调用提供了便利。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;之前的文章介绍了 &lt;code&gt;llama3.1&lt;/code&gt; 与工具方法交互的实际例子，不过可惜 &lt;code&gt;langchain&lt;/code&gt; 对 &lt;code&gt;deepseek&lt;/code&gt; 支持还不够，导致：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;llm.bind_tools 根据用户问题生成的工具方法签名与 &lt;code&gt;llama3.1&lt;/code&gt; 不同，在后续在调用工具方法时报错&lt;/li&gt;
&lt;li&gt;&lt;code&gt;deepseek&lt;/code&gt; 返回的结果中包含了思考过程内容，显然 &lt;code&gt;Langchain&lt;/code&gt; 还不能正确解析出最终结果，这会导致 &lt;code&gt;langchain&lt;/code&gt; 的很多方法不能正常运行&lt;/li&gt;
&lt;/ul&gt;
&lt;/blockquote&gt;
&lt;p&gt;这次我们将尝试通过以下两种方法解决 &lt;code&gt;Langchain&lt;/code&gt; 使用 &lt;code&gt;deepseek&lt;/code&gt; 时产生的上述问题：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;使用提示词让大模型推理调用工具的方法名称和参数&lt;/li&gt;
&lt;li&gt;使用自定义的 &lt;code&gt;JsonOutputParser&lt;/code&gt; 处理 &lt;code&gt;deepseek&lt;/code&gt; 返回的信息&lt;/li&gt;
&lt;/ul&gt;
&lt;blockquote&gt;
&lt;p&gt;这里使用 &lt;code&gt;llama3.1&lt;/code&gt; 和 &lt;code&gt;deepseek&lt;/code&gt; 等不同模型做对比，并不是为了说明孰优孰劣，而是仅仅为了技术演示需要。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(10)与外部工具交互(1)</title>
      <link>http://www.wfcoding.com/articles/practice/0310/</link>
      <pubDate>Fri, 07 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0310/</guid>
      <description>&lt;p&gt;某些模型能够进行工具方法调用：生成用户自定义的方法的签名并调用它。一般来说，此交互过程主要包含下面几个步骤：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;LLM(大语言模型)&lt;/code&gt; 根据用户的问题推理生成调用工具方法的名称和参数&lt;/li&gt;
&lt;li&gt;调用工具，返回简单的结果&lt;/li&gt;
&lt;li&gt;再次调用 &lt;code&gt;LLM&lt;/code&gt; ，生成自然流畅的回答&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;下面我们来说明这一过程。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;应该是因为 &lt;code&gt;langchian&lt;/code&gt; 对 &lt;code&gt;deepseek&lt;/code&gt; 的支持还完善，使用 &lt;code&gt;deepseek-r1&lt;/code&gt; 无法生成工具方法签名，使用 &lt;code&gt;MFDoom/deepseek-r1-tool-calling:7b&lt;/code&gt; 可以生成工具方法签名，但是在调用工具方法时不成功。&lt;br&gt;
所以本文仅使用 &lt;code&gt;llama3.1&lt;/code&gt;。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(09)完善聊天机器人(3)</title>
      <link>http://www.wfcoding.com/articles/practice/0309/</link>
      <pubDate>Thu, 06 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0309/</guid>
      <description>&lt;p&gt;本文将实现一个比较完善的聊天机器人的主要功能。包括：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;使用 &lt;code&gt;LangGraph&lt;/code&gt; 构建聊天机器人&lt;/li&gt;
&lt;li&gt;自动裁剪聊天历史&lt;/li&gt;
&lt;li&gt;管理聊天会话的方法&lt;/li&gt;
&lt;li&gt;以流的方式输出回复&lt;/li&gt;
&lt;/ul&gt;
&lt;blockquote&gt;
&lt;p&gt;我们将同时使用 &lt;code&gt;llama3.1&lt;/code&gt; 和 &lt;code&gt;deepseek&lt;/code&gt; 做演示。由于 &lt;code&gt;langchain&lt;/code&gt; 可能对不同大模型支持程度不同以及其它限制，所以这个对比并不能说明哪个模型更好。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(08)用提示词改变聊天机器人的能力(2)</title>
      <link>http://www.wfcoding.com/articles/practice/0308/</link>
      <pubDate>Wed, 05 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0308/</guid>
      <description>&lt;p&gt;本文将演示使用大语言模型自制聊天机器人。主要的内容有：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;使用 &lt;code&gt;LangGraph&lt;/code&gt; 进一步完善聊天机器人&lt;/li&gt;
&lt;li&gt;使用提示词改变 &lt;code&gt;LLM&lt;/code&gt; 的能力&lt;/li&gt;
&lt;/ul&gt;
&lt;blockquote&gt;
&lt;p&gt;我们将同时使用 &lt;code&gt;llama3.1&lt;/code&gt; 和 &lt;code&gt;deepseek&lt;/code&gt; 做演示。由于 &lt;code&gt;langchain&lt;/code&gt; 可能对不同大模型支持程度不同，不同大模型的特点也不同，所以这个对比并不能说明哪个模型更好。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(07)用langgraph自制聊天机器人(1)</title>
      <link>http://www.wfcoding.com/articles/practice/0307/</link>
      <pubDate>Tue, 04 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0307/</guid>
      <description>&lt;p&gt;本文将演示使用大语言模型自制聊天机器人。主要的内容有：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;如何让机器人具有记忆&lt;/li&gt;
&lt;li&gt;如何使用 &lt;code&gt;langgraph&lt;/code&gt; 自动记录聊天历史&lt;/li&gt;
&lt;/ul&gt;
&lt;blockquote&gt;
&lt;p&gt;我们将同时使用 &lt;code&gt;llama3.1&lt;/code&gt; 和 &lt;code&gt;deepseek&lt;/code&gt; 做演示。由于 &lt;code&gt;langchain&lt;/code&gt; 可能对不同大模型支持程度不同，不同大模型的特点也不同，所以这个对比并不能说明哪个模型更好。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(06)从文本中提取重要信息(2)</title>
      <link>http://www.wfcoding.com/articles/practice/0306/</link>
      <pubDate>Mon, 03 Feb 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0306/</guid>
      <description>&lt;p&gt;本文将演示使用大语言模型从文本中提炼结构化信息。这次我们不直接使用提示词，而是使用大模型的 &lt;code&gt;few-shot prompting&lt;/code&gt; 特性，即使用很少的例子来引导大模型做推理。&lt;br&gt;
我们将用 &lt;code&gt;llama3.1&lt;/code&gt; 和 &lt;code&gt;deepseek&lt;/code&gt; 做一个简单的对比。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;由于 &lt;code&gt;langchain&lt;/code&gt; 可能对不同大模型支持程度不同，不同大模型的特点也不同，所以这个对比并不能说明哪个模型更好。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(05)从文本中提取重要信息(1)</title>
      <link>http://www.wfcoding.com/articles/practice/0305/</link>
      <pubDate>Wed, 29 Jan 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0305/</guid>
      <description>&lt;p&gt;本文将演示使用大语言模型从文本中提炼结构化信息。&lt;br&gt;
我们将用 &lt;code&gt;llama3.1&lt;/code&gt; 和 &lt;code&gt;deepseek&lt;/code&gt; 做一个简单的对比。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;由于 &lt;code&gt;langchain&lt;/code&gt; 可能对不同大模型支持程度不同，不同大模型的特点也不同，所以这个对比并不能说明哪个模型更好。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(04)给文本自动打标签</title>
      <link>http://www.wfcoding.com/articles/practice/0304/</link>
      <pubDate>Mon, 27 Jan 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0304/</guid>
      <description>&lt;p&gt;使用本地大模型可以根据需要给文本打标签，本文介绍了如何基于 &lt;code&gt;langchain&lt;/code&gt; 和本地部署的大模型给文本打标签。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;本文使用 &lt;code&gt;llama3.1&lt;/code&gt; 作为本地大模型，它的性能比非开源大模型要查一下，不过在我们可以调整提示词后，它也基本能达到要求。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(03)用本地矢量数据库实现语义检索(2)</title>
      <link>http://www.wfcoding.com/articles/practice/0303/</link>
      <pubDate>Sun, 26 Jan 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0303/</guid>
      <description>&lt;blockquote&gt;
&lt;p&gt;上一篇文章： &lt;a href=&#34;http://wfcoding.com/articles/practice/0302/&#34;&gt;本地大模型编程实战(02)语义检索(1)&lt;/a&gt; 详细介绍了如何使用 &lt;code&gt;langchain&lt;/code&gt; 实现语义检索，为了演示方便，使用的是 &lt;code&gt;langchain&lt;/code&gt; 提供的内存数据库。&lt;br&gt;
在实际工作中，更多的使用场景是将矢量化的数据物理存储下来，在查询的时候在从存储介质中读取矢量数据进行查询，不会每次使用矢量数据时都必须想做嵌入。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;本文描述了如何使用 &lt;code&gt;Chroma&lt;/code&gt; 对csv数据进行矢量化，并且将矢量存储在硬盘中，未来查询矢量数据时，直接从硬盘中读取矢量数据进行查询。&lt;br&gt;
另外，如果数据量大一些，矢量化数据是很花时间的，我们将使用进度条显示嵌入csv的进度。&lt;/p&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(02)语义检索(1)</title>
      <link>http://www.wfcoding.com/articles/practice/0302/</link>
      <pubDate>Sat, 25 Jan 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0302/</guid>
      <description>&lt;blockquote&gt;
&lt;p&gt;我们在百度、必应、谷歌等搜索引擎中使用的检索都是基于字符串的：用户输入字符串后，搜索引擎先对搜索内容进行分词，然后在已经进行了倒排索引的巨大数据库中找出最符合用户要求的结果。&lt;br&gt;
&lt;strong&gt;语义检索&lt;/strong&gt;与其主要的区别是：它根据文本的真正含义进行搜索，其基本思路是将待检索的内容都转变成矢量（这个过程也叫做&lt;strong&gt;嵌入&lt;/strong&gt;），转化矢量的基本原则是：语义相近的内容距离更近、相似性更高。&lt;br&gt;
当用户输入检索内容时，也是先把检索内容变成矢量，然后去矢量数据库中找到最相似的文档。这样检索出来的结果并不依据字面的意思，而是依据语义的相似度。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;本文描述了如何使用 &lt;code&gt;langchain&lt;/code&gt; 和 &lt;code&gt;大语言模型&lt;/code&gt; 以及 &lt;code&gt;矢量数据库&lt;/code&gt; 完成pdf内容的语义检索。&lt;br&gt;
在对内容进行矢量化时使用了 &lt;code&gt;nomic-embed-text&lt;/code&gt;，这个模型个头小，英文嵌入效果不错。&lt;br&gt;
后面还将涉及到以下内容：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;文档和文档加载器&lt;/li&gt;
&lt;li&gt;文本分割器&lt;/li&gt;
&lt;li&gt;嵌入&lt;/li&gt;
&lt;li&gt;向量存储和检索器&lt;/li&gt;
&lt;/ul&gt;</description>
    </item>
    <item>
      <title>本地大模型编程实战(01)实现翻译功能</title>
      <link>http://www.wfcoding.com/articles/practice/0301/</link>
      <pubDate>Fri, 24 Jan 2025 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0301/</guid>
      <description>&lt;blockquote&gt;
&lt;p&gt;大语言模型的主要功能是&lt;strong&gt;预测&lt;/strong&gt;：输入一些字符串，它预测输出另一些字符串，这个特点使它擅长翻译。&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;本文描述了如何使用大语言模型(&lt;code&gt;LLM&lt;/code&gt;)实现基本的翻译功能，此翻译功能的特点是：&lt;mark&gt;无需指定源语言，只需要指定目标语言就可以进行翻译了&lt;/mark&gt;。&lt;/p&gt;</description>
    </item>
    <item>
      <title>使用LangServe做API开放本地大模型的能力</title>
      <link>http://www.wfcoding.com/articles/practice/0106/</link>
      <pubDate>Sun, 27 Oct 2024 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0106/</guid>
      <description>&lt;p&gt;&lt;code&gt;LangServe&lt;/code&gt;可以轻松的将&lt;code&gt;langchain&lt;/code&gt;的能力包装为接口，为前端提供服务。本文通过一个简单的应用演示&lt;code&gt;LangServe&lt;/code&gt;如何使用。&lt;/p&gt;</description>
    </item>
    <item>
      <title>基于langchain和本地大模型以及会话式检索增强生成技术实现知识问答</title>
      <link>http://www.wfcoding.com/articles/practice/0105/</link>
      <pubDate>Thu, 10 Oct 2024 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0105/</guid>
      <description>&lt;p&gt;本文概述了基于langchian框架和对话式增强生成（&lt;code&gt;Conversational RAG&lt;/code&gt;(&lt;code&gt;Retrieval Augmented Generation&lt;/code&gt;)）技术实现知识问答。&lt;br&gt;
具体来说，系统&lt;mark&gt;自动记录聊天历史&lt;/mark&gt;，并把它作为上下文提供给大模型，这样它让大模型产生了“记忆”，可以“理解”和关联上下文，体验更好。&lt;br&gt;
此样例程序使用本地部署的&lt;code&gt;nomic-embed-text&lt;/code&gt;模型做嵌入检索，使用本地部署的&lt;code&gt;llama3.1&lt;/code&gt;做回答内容生成。&lt;/p&gt;</description>
    </item>
    <item>
      <title>基于langchain和本地大模型以及会话式检索增强生成技术实现知识问答</title>
      <link>http://www.wfcoding.com/articles/practice/0104/</link>
      <pubDate>Wed, 09 Oct 2024 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0104/</guid>
      <description>&lt;p&gt;本文讲述了基于&lt;code&gt;langchian&lt;/code&gt;框架，使用本地部署的&lt;code&gt;nomic-embed-text&lt;/code&gt;模型做嵌入检索、&lt;code&gt;llama3.1&lt;/code&gt;做回答内容生成的知识问答系统实例。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;会话式检索增强生成，即：&lt;code&gt;Conversational RAG&lt;/code&gt;。&lt;/li&gt;
&lt;li&gt;&lt;code&gt;nomic-embed-text&lt;/code&gt;：一个高性能开放嵌入模型，具有较大的标记上下文窗口。这个模型只有274M，但实际做嵌入和检索时，感觉&lt;strong&gt;比llama3好&lt;/strong&gt;。&lt;/li&gt;
&lt;/ul&gt;
&lt;blockquote&gt;
&lt;p&gt;通过对比测试使用历史聊天记录和不使用历史聊天记录两种情况，我们可以明显看出来使用历史聊天记录的优点：它让大模型产生了“记忆”，可以“理解”和关联上下文，体验更好。&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
    <item>
      <title>使用langchain&#43;本地lamma3.1&#43;本地chroma做RAG系统</title>
      <link>http://www.wfcoding.com/articles/practice/0103/</link>
      <pubDate>Tue, 01 Oct 2024 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0103/</guid>
      <description>&lt;p&gt;本文详细讲述了如何使用&lt;code&gt;langchain&lt;/code&gt;+本地&lt;code&gt;lamma3.1&lt;/code&gt;+本地&lt;code&gt;chroma&lt;/code&gt;做&lt;code&gt;RAG&lt;/code&gt;系统。&lt;/p&gt;</description>
    </item>
    <item>
      <title>在langchian中使用本地部署的llama3.1大模型</title>
      <link>http://www.wfcoding.com/articles/practice/0102%E5%9C%A8langchian%E4%B8%AD%E4%BD%BF%E7%94%A8%E6%9C%AC%E5%9C%B0%E9%83%A8%E7%BD%B2%E7%9A%84llama3%E5%A4%A7%E6%A8%A1%E5%9E%8B/</link>
      <pubDate>Tue, 01 Oct 2024 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/practice/0102%E5%9C%A8langchian%E4%B8%AD%E4%BD%BF%E7%94%A8%E6%9C%AC%E5%9C%B0%E9%83%A8%E7%BD%B2%E7%9A%84llama3%E5%A4%A7%E6%A8%A1%E5%9E%8B/</guid>
      <description>&lt;p&gt;本文讲述如何在&lt;code&gt;langchian&lt;/code&gt;中使用本地部署的&lt;code&gt;llama3.1&lt;/code&gt;大模型。&lt;/p&gt;</description>
    </item>
    <item>
      <title>大语言模型能做什么</title>
      <link>http://www.wfcoding.com/articles/theory/%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E8%83%BD%E5%81%9A%E4%BB%80%E4%B9%88/</link>
      <pubDate>Fri, 20 Sep 2024 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/theory/%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B%E8%83%BD%E5%81%9A%E4%BB%80%E4%B9%88/</guid>
      <description>&lt;p&gt;当前AI的本质能力上是&lt;mark&gt;预测&lt;/mark&gt;：AI能通过大数据训练，总结过去的规律，预测未来。&lt;br&gt;
比如我们问AI：“内蒙古的首府是哪个城市？”，其实AI并不会透彻“理解”这句话的意思，但是它可以预测：当人们提出这样一个问题时，他们寻找的是一个特定的答案：呼和浩特。&lt;br&gt;
从经济的角度看，AI能让各种“中低端”的服务变得更廉价，可见AI必然会逐渐替代这些服务有其必然性。&lt;/p&gt;</description>
    </item>
    <item>
      <title>大模型的涌现能力</title>
      <link>http://www.wfcoding.com/articles/theory/%E5%A4%A7%E6%A8%A1%E5%9E%8B%E7%9A%84%E6%B6%8C%E7%8E%B0%E8%83%BD%E5%8A%9B/</link>
      <pubDate>Thu, 19 Sep 2024 00:00:00 +0000</pubDate>
      <guid>http://www.wfcoding.com/articles/theory/%E5%A4%A7%E6%A8%A1%E5%9E%8B%E7%9A%84%E6%B6%8C%E7%8E%B0%E8%83%BD%E5%8A%9B/</guid>
      <description>&lt;p&gt;涌现能力是在模型参数增加到某一临界点后突然出现的，这些能力包括但不限于语言理解能力、生成能力、逻辑推理能力等，而这种能力是小模型所不具备的。&lt;br&gt;
这也是为什么chat GPT出现后让人眼前一亮：和它聊天与真人无异，不像是机器了！这主要应该归功于大模型的&lt;mark&gt;涌现能力&lt;/mark&gt;。&lt;/p&gt;</description>
    </item>
  </channel>
</rss>
