AI Agent 会越来越像人吗?从 Tool、Skill、Memory 到 Soul 和 Rules

Posted on 日 05 4月 2026 in AI • Tagged with AI, agent, memory, skills, rules, MCP, multi-agent, governance, multimodal

AI Agent 的演化,表面上看越来越拟人,技术上看其实是在一层层补齐“器官”:从思考与推理、多模态感知,到工具、技能、记忆、人格、规则、身体接口,再到多 Agent 协作与治理。它未必先替代人,但一定会先重写很多知识工作的分工边界。


Continue reading

AI Agent 为什么会越用越懂你?从 OpenClaw 的“养龙虾”聊起

Posted on 三 01 4月 2026 in AI • Tagged with AI, agent, OpenClaw, memory, personalization, context-engineering

很多人觉得 OpenClaw 这类 AI Agent 用久了会“自我进化”。真相没那么玄:多数时候,不是模型偷偷变聪明了,而是记忆、偏好画像、工具调用、反馈回路和工作流沉淀一起把它越养越顺手。


Continue reading

再聊 nanobot 的记忆机制:从消息计数到 Token 预算

Posted on 六 21 3月 2026 in AI • Tagged with nanobot, AI Agent, memory, LLM, session management

上次聊了 nanobot 双层记忆的基本设计,这次深入源码,看看它最近的几个关键演进:基于 Token 预算的整理策略、会话历史的合法性校验、以及一个"连续 assistant 消息"的 bug 是怎么产生和修复的。


Continue reading

AI Agent Loop 讲透:以一个会自己写博客的 Python Demo 为例

Posted on 四 19 3月 2026 in Journal • Tagged with agent, agent-loop, AI, LLM, python, tool-calling, memory, planning

以 lazy-rabbit-agent 里的 agent_loop_demo.py 为例,讲清楚 AI Agent Loop 的本质:它不是玄学,而是由规划、记忆、工具调用、观察回流、格式约束与失败恢复组成的一台小发动机。


Continue reading

nanobot 的记忆机制:它为什么能记住你的习惯和喜好?

Posted on 日 15 3月 2026 in AI • Tagged with nanobot, AI Agent, memory, LLM

拆解 nanobot 的双层记忆系统——一个只有 4000 行代码的 AI 助手,是怎么做到跨会话记住你的偏好、项目上下文和工作习惯的?从源码到设计哲学,聊聊 AI Agent 的"长期记忆"该怎么做。


Continue reading

Virtual memory and malloc info

Posted on 日 14 6月 2020 in Journal • Tagged with memory

每个进程都有独立的虚拟地址空间,进程访问的虚拟地址并不是真正的物理地址; 虚拟地址可通过每个进程上的页表(在每个进程的内核虚拟地址空间)与物理地址进行映射,获得真正物理地址; 如果虚拟地址对应物理地址不在物理内存中,则产生缺页中断,真正分配物理地址,同时更新进程的页表;如果此时物理内存已耗尽,


Continue reading