1. 先把判断力建起来
先学能力边界,学会什么时候该答、什么时候该澄清、取证、拒答或升级。
打开这一步First User Sprint
这不是“逛一圈内容”的路线,而是一个能在几小时内让你明显更会判断、更会约束、更会停下来的起步链路。
每节课都要求你做判断、写反思、沉淀知识卡,而不是被动浏览内容。
从 token、上下文到 eval 和交付,每一步都对应真实 AI 系统能力。
你保存下来的知识卡、反思和项目产物,会逐渐变成自己的方法论库。
先理解硬约束:token、能力边界、输出契约。
把上下文、检索、工具调用做成显式结构,而不是继续堆长 prompt。
让系统可评估、可调试、可控风险、可控制成本。
把工作流变成真实产品:身份、权限、订阅和上线验收都要连起来。
Search Paths
这些入口不是内部命名,而是直接对齐用户真正会搜索的词,用来把搜索流量接进课程、跟做和项目闭环。
Prompt Engineering Course
这页面向真正搜索“prompt engineering course”的用户,但 DepthPilot 不把它做成提示词花活合集,而是把 prompt 放回系统设计、上下文架构和评估闭环里。
打开入口页LLM Limitations
很多人在搜 LLM limitations 时,只是想知道模型有哪些缺点。DepthPilot 更进一步:我们要让用户学会把任务分流到回答、澄清、检索、工具调用或拒答,而不是继续被流畅输出骗走判断力。
打开入口页Structured Outputs Guide
很多人搜 structured outputs,只是想知道怎么让模型吐出 JSON。DepthPilot 更关心的是:怎样把 AI 输出变成系统能验证、能拒绝、能回退的契约。
打开入口页Retrieval and Grounding Guide
很多人搜 retrieval 或 grounding,只想知道怎么把文档喂给模型。DepthPilot 更关心的是:什么时候必须取证、如何筛证、如何保留来源,让用户真正知道答案为什么值得信。
打开入口页Agent Workflow Design
很多人搜 agent workflow design 时,想找的是一套能真正执行、能停止、能交接、能复盘的设计方法。DepthPilot 把它拆成 routing、工具边界、确认关卡和 operator skills。
打开入口页Context Architecture
当用户开始搜 context architecture 或 context engineering,他已经从“怎么写提示词”进入“怎么设计信息流”。这正是 DepthPilot 的核心中层能力。
打开入口页AI Eval Loop
真正严肃的 AI 产品不会把‘感觉更好了’当成评估。搜 AI eval loop 的用户通常已经意识到,没有评估,前面的 prompt 和 workflow 都很难稳定增长。
打开入口页OpenClaw Tutorial
这个入口页直接对齐 OpenClaw tutorial 搜索意图,帮用户先理解自己会拿到什么,再进入正式跟做课、skills 页和项目路径。
打开入口页Supabase Auth Tutorial
这页对齐 Supabase auth tutorial 搜索词,但落点不是表单,而是一条真实可用的账号链路,包括 callback、session 和 RLS。
打开入口页LLM Observability Guide
很多人搜 LLM observability,是因为系统出了问题却不知道怎么查。DepthPilot 关心的不只是埋点,而是怎样记录 trace、标注失败、重放坏 case,让调试进入系统方法。
打开入口页Prompt Injection Defense
很多人搜 prompt injection defense,是因为系统开始接用户文本、网页内容或知识库之后,已经意识到靠 prompt 提醒不够。DepthPilot 关心的是 trust boundary、动作确认和真正能止损的 guardrails。
打开入口页LLM Model Routing Guide
很多人搜 model routing,只盯着哪个模型更强。DepthPilot 更关心的是:哪些请求值得强路径,哪些应该走便宜路径,哪些根本不该直接回答。
打开入口页LLM Latency and Cost Guide
很多人搜 LLM latency 或 cost optimization 时,第一反应是换更便宜模型。DepthPilot 更关心的是:系统有没有重复请求、上下文有没有膨胀、哪些任务其实该缓存或异步。
打开入口页Human in the Loop AI
很多人搜索 human in the loop AI,只是想知道“要不要人来审核”。DepthPilot 关心的是更实战的问题:什么时候必须停下、谁来接手、接手时系统要交什么证据。
打开入口页RAG Freshness Governance
很多团队把 RAG 做成“能搜到一些文档”,然后就默认系统有了可靠知识。DepthPilot 关心的是:这些文档谁负责、多久过期、版本怎么治理、过时了怎么办。
打开入口页LLM Evaluation Rubric
很多人在搜索 LLM evaluation rubric 时,只是想找一张模板。DepthPilot 更进一步:我们把 rubric 变成维度、锚点、hard-stop 和 grader 规则,帮助用户真正决定系统哪里坏了、先修哪里。
打开入口页从这里开始
理解 token 不是成本细节,而是决定 AI 系统边界的第一层约束。
Source-backed and reviewed
进入课程真正会驾驭 AI 的人,先知道什么时候该让模型回答,什么时候必须让它澄清、检索、调用工具或停下来。
Source-backed and reviewed
进入课程真正可用的 AI 系统,不靠模型自由发挥,而靠清晰任务 framing、结构化输出和可验证的结果约束。
Source-backed and reviewed
进入课程上下文管理的核心不是堆内容,而是设计信息进入和退出模型的方式。
Source-backed and reviewed
进入课程真正可靠的系统,不会假装模型天生知道一切,而是知道什么时候必须取证、引用、保留来源和新鲜度。
Source-backed and reviewed
进入课程可靠的 agent 不是因为模型说得像就去行动,而是要经过澄清、取证、动作边界、恢复顺序和可复用 operator skill 的设计。
Source-backed and reviewed
进入课程做了 retrieval 还不够。如果系统检索到的是过时政策、混乱版本或没有 owner、没有时间戳、没有过期规则的内容,它依然会带着“有来源”的外观稳定答错。
Source-backed and reviewed
进入课程没有评估闭环,AI 产品只是在随机试错。
Source-backed and reviewed
进入课程如果你不能按维度给质量打分,就无法负责任地改进系统。Rubric 的作用是把含糊口味变成可复查证据和修复优先级。
Source-backed and reviewed
进入课程真正成熟的 AI 系统,不靠“感觉哪里不对”来排错,而是靠 trace、失败标签和可重放证据把问题定位到具体链路。
Source-backed and reviewed
进入课程可靠系统不会把安全寄托在一句“请忽略恶意输入”。它会明确谁能下指令、什么内容不可信、哪些动作必须二次确认。
Source-backed and reviewed
进入课程AI 系统上线后最常见的崩溃,不是模型不够聪明,而是太慢、太贵、太浪费。成熟设计会把延迟和成本当成产品约束,而不是最后才补的财务问题。
Source-backed and reviewed
进入课程严肃团队不会把所有请求都打到同一个模型上,也不会逼系统把所有请求都答出来。它们会按任务价值、风险、证据需求和预算来分流,并保留澄清、取证、拒答和升级的权利。
Source-backed and reviewed
进入课程真正可靠的系统,不是所有请求都给答复,而是知道什么时候该停、该升级、该把证据交给人,从而让人工接手既快又准。
Source-backed and reviewed
进入课程