@DeRonin_: 这篇文章让我今晚重写了自动化内容引擎的 4 个部分,内容引擎 v2:https://x.com/DeRonin…

X AI KOLs Following 新闻

摘要

作者分享了对其自动化内容引擎进行的四项具体改进,包括更小的上下文数据包、病毒式传播内容的复盘分析、基于文件夹的状态管理以及可书签化评分。

这篇文章促使我在今晚重写了自动化内容引擎(v2 版)中的 4 个模块:https://x.com/DeRonin_/status/2048078915520901242… 以下是我从他的架构中借鉴并整合到我系统里的内容: [ 1. 写作上下文数据包模板 ] 之前,我在每个草稿提示词中堆入完整的受众画像(Audience DNA)、15 位 KOL 画像以及病毒式传播信号。 现在改为针对单篇帖子的数据包,400-900 tokens,仅包含**这篇**帖子实际需要的信息片段。 小数据包每次都能击败巨大的上下文窗口,草稿在第一次生成时就更精准。 [ 2. 病毒式传播复盘提示词 ] 作为任何内容进入队列前的最终验证器添加。 强制模型指出具体是**哪些确切行**发挥了作用,而不是泛泛的赞美。 大多数草稿能通过我常规的验证器,但会在这一步失败。真正的编辑价值就存在于这个差距之中。 [ 3. 将内容对象视为文件夹,而非数据库行 ] 之前,我将每篇帖子作为 SQLite 中的一行进行追踪,使用状态列。 现在改为每篇帖子一个运行文件夹,包含 idea.md、brief.md、draft.md、feedback.md。 更简单,不可能跳过生命周期步骤,每篇帖子都携带其自身状态。 [ 4. 可收藏性量规评分 ] 现在每篇草稿在入队前都会在 6 个标准上以 0-2 分进行评分。 低于 8/12 分的内容将返回简报阶段,而不是直接丢弃。 大多数“糟糕”的草稿其实是好草稿,只是遗漏了量规中的某一行。 [ 我现在的流水线看起来像这样 ]: SCRAPERS(9 个来源) ↓ SIGNAL LAYER(外部信号层) + KNOWLEDGE GRAPH(受众画像、内容 DNA、语调规则、KOL 画像、证据库) ↓ IDEA GATE(创意网关)路由至:原创 / 复用 / 改写 / 研究 ↓ RUN FOLDER(运行文件夹)每篇帖子一个,携带完整生命周期 ↓ WRITER CONTEXT PACKET(写作上下文数据包)针对单篇帖子,仅 400-900 tokens ↓ DRAFT(草稿) ↓ VIRAL POSTMORTEM(病毒式传播复盘) + AVOID-SLOP PASS(去水化/去废话检查) ↓ BOOKMARKABILITY RUBRIC(可收藏性量规,8/12 分为发布最低门槛) ↓ POSTIZ SCHEDULER(Postiz 调度器) ↓ FEEDBACK LOOP(反馈循环,24h / 72h) ↓ UPDATES STORES:受众画像、语调规则、禁用模式、钩子 暂时跳过他的双模型分离方案(opus + gpt-5.5)。 单模型 + 紧密的技能图谱目前仍足以处理我的流量。 这篇文章值得全文阅读。如果你正在构建任何类型的内容系统,这四个模式是我会首先实施的方案。
查看原文

相似文章

@akshay_pachaar: https://x.com/akshay_pachaar/status/2053166970166772052

X AI KOLs Timeline

The article discusses a shift in AI agent tool usage from the 'MCP vs CLI' debate to 'Code Mode,' where agents write code to dynamically import tools, significantly reducing context window usage. It highlights Anthropic's approach and Cloudflare's implementation, demonstrating a 98.7% reduction in token consumption for specific tasks.

为我的博客转新闻稿工具添加新的内容类型

Simon Willison's Blog

Simon Willison 分享了一个示例,使用 Claude Code 为他的博客转新闻稿工具添加新的 'beats' 内容类型,展示了有效的代理工程模式以及将编码任务委托给 AI 代理的提示设计。