给代码仓库造一个 DeepWiki:Tree-sitter + Embedding + 图谱 + LLM 的方法论

Posted on 四 16 4月 2026 in Journal • Tagged with RAG, Code Knowledge Base, Tree-sitter, Embedding, Memgraph, pgvector, sqlite-vec, LLM, DeepWiki, AI Coding

把一个陌生代码库变成可问可答的 DeepWiki 知识库,靠的不是"把 README 喂给 GPT",而是 Tree-sitter 解析 + Embedding 向量 + 图数据库 + LLM 生成 四件套。本文不谈具体实现代码,只讲方法论、流程与取舍,并进一步讨论:代码作为 source of truth 之后,文档如何分层,以及如何让知识库反过来 harness AI 编码。


Continue reading

用 Promptfoo 给 AI skill 做体检:评估、测试、质量与安全把关

Posted on 三 15 4月 2026 in Journal • Tagged with Promptfoo, AI, LLM, Agent, Skill, Evaluation, Red Team, Security, CI/CD

很多团队做 AI skill,还停留在“这次跑通了,看起来不错”的阶段。可真正上线之后,问题往往不在第一次回答,而在波动、成本、工具调用路径和安全边界。本文借 Promptfoo 这把尺子,聊聊怎么系统地评估、测试并给 AI skill 做质量与安全把关。


Continue reading

Obsidian 加 LLM,个人知识库的正确打开方式

Posted on 三 08 4月 2026 in Journal • Tagged with Obsidian, LLM, 知识管理, AI, MCP, RAG

笔记散落各处,AI 却帮不了你?聊聊怎么用 Obsidian 的本地 Markdown 文件,配合 LLM 插件、MCP 和编译式知识库,把"一堆文件"变成"能回答问题的第二大脑"。


Continue reading

蒸馏:AI 世界里的"吸星大法"

Posted on 日 05 4月 2026 in AI • Tagged with AI, distillation, LLM, agent, skill, knowledge-distillation, DeepSeek, OpenAI

大模型能蒸馏,Agent 的 Skill 也能蒸馏。蒸馏到底是什么?为什么 DeepSeek 能把 671B 的推理能力塞进 1.5B 的小模型?为什么你的 Agent 技能越写越臃肿时,也需要来一轮"蒸馏"?这篇把模型蒸馏和技能蒸馏串起来讲,一次搞懂。


Continue reading

再聊 nanobot 的记忆机制:从消息计数到 Token 预算

Posted on 六 21 3月 2026 in AI • Tagged with nanobot, AI Agent, memory, LLM, session management

上次聊了 nanobot 双层记忆的基本设计,这次深入源码,看看它最近的几个关键演进:基于 Token 预算的整理策略、会话历史的合法性校验、以及一个"连续 assistant 消息"的 bug 是怎么产生和修复的。


Continue reading

AI Agent Loop 讲透:以一个会自己写博客的 Python Demo 为例

Posted on 四 19 3月 2026 in Journal • Tagged with agent, agent-loop, AI, LLM, python, tool-calling, memory, planning

以 lazy-rabbit-agent 里的 agent_loop_demo.py 为例,讲清楚 AI Agent Loop 的本质:它不是玄学,而是由规划、记忆、工具调用、观察回流、格式约束与失败恢复组成的一台小发动机。


Continue reading

nanobot 的记忆机制:它为什么能记住你的习惯和喜好?

Posted on 日 15 3月 2026 in AI • Tagged with nanobot, AI Agent, memory, LLM

拆解 nanobot 的双层记忆系统——一个只有 4000 行代码的 AI 助手,是怎么做到跨会话记住你的偏好、项目上下文和工作习惯的?从源码到设计哲学,聊聊 AI Agent 的"长期记忆"该怎么做。


Continue reading

Claude 提示工程最佳实践:从"能用"到"好用"的距离,可能就差一个系统提示词

Posted on 四 05 3月 2026 in AI • Tagged with AI, prompt-engineering, Claude, LLM, 提示工程, Anthropic

大多数人用 Claude 就像用搜索引擎——丢一句话进去,看看出来什么。但 Claude 4.6 已经不是一个"问答机器"了,它更像一个刚入职的天才实习生:聪明得吓人,但完全不知道你们组的规矩。这篇文章拆解 Anthropic 官方最新的提示工程指南,把那些"看起来都懂、做起来全忘"的技巧变成你明天就能用的 checklist。


Continue reading

设计一个学习职场英语的 AI Agent(LLM Agent 架构 + 日常闭环 + 打分)

Posted on 一 23 2月 2026 in Tech • Tagged with ai-agent, llm, agents, learning, spaced-repetition, english

一份纯技术向的设计:用 LLM-powered agent 跑一个固定的日常学习闭环(morning learn → evening test → next-day review),并用双维度打分管理句子库:实用度(1–5)与熟练度(1–5)。


Continue reading

Prompt 工程已死,上下文工程当立

Posted on 五 16 1月 2026 in AI • Tagged with context-engineering, RAG, Personal Knowledge Base, LLM, AI-agent

你的 AI 回答总是不着边际?别再死磕 Prompt 了,多半是"上下文"没给对。本文深度解读"上下文工程",剖析它与 RAG 的本质区别,并通过一个"AI 面试官"的完整实例,手把手教你打造一个不弱智的 Agent。


Continue reading

从 PDCA 到 PAOE:AI Agent 大脑里的循环

Posted on 四 15 1月 2026 in AI • Tagged with AI-agent, ReAct, LLM, PDCA, architecture

PDCA 是管理者的圣经,但对于 AI Agent 来说,它太慢了。本文提出 PAOE (Plan, Act, Observe, Evaluate) 模型,深度解析 ReAct 机制如何让 LLM 拥有“手眼协调”的能力,并附带 Python 实现代码。


Continue reading

RAG 进阶指南:别只盯着向量数据库,Elasticsearch 才是扫地僧

Posted on 四 15 1月 2026 in AI • Tagged with RAG, Elasticsearch, Vector Search, LLM, Hybrid Search

你的 RAG 系统总是在胡说八道?多半是检索拖了后腿。本文基于 Medium 高赞文章,深度解析如何利用 Elasticsearch 的混合检索、函数得分等高级特性,拯救你那“弱不禁风”的 RAG。


Continue reading

用 Eino 构建 AI Agent:Go 开发者的 LangChain 终于来了

Posted on 三 14 1月 2026 in AI • Tagged with Go, AI-agent, eino, LLM, cloudwego

字节跳动开源的 Eino 框架,让 Go 开发者也能优雅地构建 AI Agent——本文带你从零开始,用 Go 写一个智能穿衣助手


Continue reading

Vibe 编程的新范式:在 AI 时代重新定义软件开发

Posted on 五 07 11月 2025 in AI • Tagged with journal, blog, vibe-coding, AI, prompt-engineering, LLM, context-engineering

探讨 AI 时代的编程新范式:从传统编码到 Vibe 编程,强调人在其中的关键作用——提问、判断、决策和创新能力的重要性


Continue reading