← 返回

🔥大家都在喷什么(2026-03-21)

最后更新 2026/04/05 08:20:03 大家都在喷RSS技术博客issue radar

大家都在喷什么(2026-03-21)

数据源:68 个 RSS 源,共扫描 1049 条内容,筛出 269 条近 48h 内容。

一、今天值得看的宝藏技术博客

1. AURI: Security Intelligence for Agentic Software Development | Solution Brief | Endor Labs

  • 来源:Endor Labs Blog
  • 相关兴趣:software-engineering, supply-chain-security, ai4se, ai-ml
  • 链接:https://www.endorlabs.com/learn/auri-security-intelligence-for-agentic-software-development
  • 摘要:AI agents 正在重塑软件构建方式,但它们也把风险放大到人工审查难以覆盖的规模。Endor Labs 的 AURI 试图把安全能力直接嵌入开发者工作流,用 agentic reasoning(智能体式推理)结合 deterministic program analysis(确定性程序分析),让团队在加速编码时不必牺牲安全性。

2. Powering the agents: Workers AI now runs large models, starting with Kimi K2.5

  • 来源:Cloudflare Blog
  • 相关兴趣:software-engineering, ai4se, ai-ml, devops-infra
  • 链接:https://blog.cloudflare.com/workers-ai-large-models/
  • 摘要:Kimi K2.5 已上线 Workers AI,开发者可以在 Cloudflare 的 Developer Platform 上直接部署和运行 agents。Cloudflare 这篇文章重点讲了它们如何优化 inference stack(推理栈),并把内部 agent 场景的推理成本继续压低。

3. Powering the agents: Workers AI now runs large models, starting with Kimi K2.5

  • 来源:Cloudflare AI Blog
  • 相关兴趣:software-engineering, ai4se, ai-ml, devops-infra
  • 链接:https://blog.cloudflare.com/workers-ai-large-models/
  • 摘要:Kimi K2.5 已上线 Workers AI,开发者可以在 Cloudflare 的 Developer Platform 上直接部署和运行 agents。Cloudflare 这篇文章重点讲了它们如何优化 inference stack(推理栈),并把内部 agent 场景的推理成本继续压低。

4. Quoting Kimi.ai @Kimi_Moonshot

  • 来源:Simon Willison
  • 相关兴趣:open-source, ai4se, ai-ml
  • 链接:https://simonwillison.net/2026/Mar/20/cursor-on-kimi/#atom-everything
  • 摘要:Kimi.ai 明确回应称,Cursor 的 Composer 2 底座使用了 Kimi-k2.5,并表示这正是他们希望推动的 open model ecosystem(开放模型生态)合作方式。值得注意的是,Cursor 访问 Kimi-k2.5 依赖 FireworksAI_HQ 提供的 RL(强化学习)与推理托管平台,这说明前沿 coding model(代码模型)的商业化已经深度绑定基础设施伙伴。

5. Endor Labs vs Snyk: SCA, SAST, and Containers Compared | Blog | Endor Labs

  • 来源:Endor Labs Blog
  • 相关兴趣:open-source, ai-ml, devops-infra
  • 链接:https://www.endorlabs.com/learn/endor-labs-vs-snyk
  • 摘要:这篇对比把 Endor Labs 和 Snyk 放在一起看,核心差异在于 Endor Labs 强调 reachability analysis(可达性分析),声称能在 40 多种语言里把告警噪声降低到原来的 5% 左右。Snyk 的优势则是覆盖面更广、还有 free tier(免费层),更适合先快速铺开。

6. OpenAI acquires Astral to bring open source Python developer tools to Codex — but details are still fuzzy

  • 来源:The New Stack
  • 相关兴趣:software-engineering, open-source, ai4se
  • 链接:https://thenewstack.io/openai-astral-acquisition/
  • 摘要:OpenAI 宣布收购 Astral,目标是把这家公司的开源 Python 开发工具整合进 Codex 体系。问题在于外界目前仍看不清整合边界和治理方式,所以这笔收购虽然重要,但细节仍然相当模糊。

7. Linux kernel scale is swamping an already-flawed CVE system

  • 来源:The New Stack
  • 相关兴趣:software-engineering, open-source, supply-chain-security
  • 链接:https://thenewstack.io/linux-kernel-cve-system/
  • 摘要:Linux kernel 的规模和维护复杂度,已经把本就不够理想的 CVE system(漏洞编号体系)进一步压到失真。文章的重点不是单个漏洞,而是当超大开源项目进入工业级演化阶段后,传统漏洞治理机制已经越来越跟不上节奏。

8. The Next Era of AppSec: Why AI-Generated Code Needs Offensive Dynamic Testing

  • 来源:Snyk Blog
  • 相关兴趣:software-engineering, supply-chain-security, ai4se
  • 链接:https://snyk.io/blog/the-next-era-of-appsec-why-ai-generated-code-needs-offensive-dynamic-testing/
  • 摘要:Static analysis(静态分析)只能告诉你哪里“可能有问题”,真正能验证是否可利用的仍然是 dynamic testing(动态测试)。在 AI-generated code(AI 生成代码)越来越多的背景下,把代码上下文和真实运行环境测试结合起来,正成为 AppSec 的下一步重点。

9. Cursor’s Composer 2 beats Opus 4.6 on coding benchmarks at a fraction of the price

  • 来源:The New Stack
  • 相关兴趣:software-engineering, ai4se, ai-ml
  • 链接:https://thenewstack.io/cursors-composer-2-beats-opus/
  • 摘要:Cursor 发布了第三代自研 coding model(代码模型)Composer 2,并宣称它在多项编码基准上超过了 Anthropic 的 Opus 4.6。更刺激市场的是,它主打“更低价格拿到更强性能”,这会继续把 coding agent(编码智能体)赛道的竞争往成本战推。

10. Sampling: the philosopher’s stone of distributed tracing

  • 来源:The New Stack
  • 相关兴趣:software-engineering, ai4se, devops-infra
  • 链接:https://thenewstack.io/distributed-tracing-sampling-opentelemetry/
  • 摘要:在 observability(可观测性)体系里,distributed tracing(分布式追踪)常被视为信息最丰富的信号,但它的代价也最高。文章认为真正决定 tracing 能否落地的关键不是采不采,而是 sampling(采样)策略怎么设计。

11. How we monitor internal coding agents for misalignment

  • 来源:OpenAI News
  • 相关兴趣:software-engineering, ai4se, ai-ml
  • 链接:https://openai.com/index/how-we-monitor-internal-coding-agents-misalignment
  • 摘要:OpenAI 介绍了它们如何用 chain-of-thought monitoring(思维链监控)去研究内部 coding agents(编码智能体)的 misalignment(失配)问题。重点不在实验室玩具案例,而是在真实部署环境里观察风险信号,再据此补强安全防护。

12. b4 v0.15.0 released

  • 来源:LWN.net
  • 相关兴趣:software-engineering, open-source
  • 链接:https://lwn.net/Articles/1064097/
  • 摘要:b4 patch-management tool(补丁管理工具)发布了 0.15.0 版本,这次更新明显更偏向维护者工作流。像 b4 review、b4 dig 和 b4 shazam 的增强,本质上都在继续压缩邮件列表驱动开发中的检索、审查和合并摩擦。

13. Best DevSecOps Platform Tools for AppSec Teams in 2026 | Blog | Endor Labs

  • 来源:Endor Labs Blog
  • 相关兴趣:ai4se, ai-ml
  • 链接:https://www.endorlabs.com/learn/best-devsecops-platforms
  • 摘要:这是一份面向 2026 年 AppSec 团队的 DevSecOps platform(平台)对比,评价维度集中在 reachability analysis(可达性分析)、全栈扫描覆盖和 evidence-based remediation(证据驱动修复)。这类比较的价值不只是选型,也反映出安全平台正在从“发现问题”转向“证明问题是否值得修”。

14. From pillars to platform: How open observability data is changing the industry

  • 来源:The New Stack
  • 相关兴趣:software-engineering, devops-infra
  • 链接:https://thenewstack.io/open-observability-ai-platforms/
  • 摘要:随着 observability 行业从封闭系统转向开放框架,传统的 metrics、logs、traces 三支柱叙事正在被“数据平台化”取代。文章的判断是,未来竞争点不只是采集能力,而是谁能把开放数据真正变成可运营的平台能力。

15. QCon London 2026: Kleppmann on Mitigating Europe’s Cloud Dependency with Local-First Software

16. [P] Quantized on-device models beat Whisper Large v3 (FP16) — LALM vs transducer, 15k inference tests, fully reproducible

17. Viability of endpoint agents

  • 来源:Reddit cybersecurity
  • 相关兴趣:software-engineering, supply-chain-security, ai4se, ai-ml
  • 链接:https://www.reddit.com/r/cybersecurity/comments/1rytoul/viability_of_endpoint_agents/
  • 摘要:这条讨论非常真实地暴露了 agentic AI security platform(智能体安全平台)的部署困境:endpoint agent(终端代理)检查能力最强,但企业客户通常最抗拒在终端再装一个代理。替代方案如 AI gateway(AI 网关)或 proxy(代理)更容易落地,却往往会损失可见性和拦截力度。

18. [D] Tried MiniMax M2.7 impressive performance on real-world tasks

  • 来源:Reddit MachineLearning
  • 相关兴趣:software-engineering, open-source, ai4se, ai-ml
  • 链接:https://www.reddit.com/r/MachineLearning/comments/1rxnfc5/d_tried_minimax_m27_impressive_performance_on/
  • 摘要:这位用户实测后认为 MiniMax M2.7 在复杂真实任务上表现相当强,尤其是 coding workflows(编码工作流)、bug tracing(缺陷追踪)和多步骤文档处理。这里的看点不是跑分,而是模型在 skills adherence(技能遵循)和实际交互稳定性上给出了不错反馈。

19. [vas3k/TaxHacker] [BUG] deleteFile in models/files.ts uses unsanitized path from database, allowing arbitrary file deletion

  • 来源:GitHub Trending Issues
  • 相关兴趣:software-engineering, open-source, ai4se
  • 链接:https://github.com/vas3k/TaxHacker/issues/75
  • 摘要:TaxHacker 有人报告 deleteFile 在拼接文件路径时直接使用了数据库里的未清洗输入,这会导致 arbitrary file deletion(任意文件删除)风险。这个问题很典型,属于路径校验和文件系统边界控制没做好,后果却可能非常严重。

20. good backup does not mean good recovery

  • 来源:Reddit SelfHosted
  • 相关兴趣:software-engineering, ai4se, devops-infra
  • 链接:https://www.reddit.com/r/selfhosted/comments/1rz89tt/good_backup_does_not_mean_good_recovery/
  • 摘要:这篇吐槽的核心很朴素:good backup(备份做得好)不等于 good recovery(恢复一定顺利)。很多自托管系统的问题只有在真正迁移和恢复时才会暴露,所以恢复演练本身才是备份体系里最容易被忽略、却最关键的一环。

二、今天大家都在喷什么

1. What we heard about Rust’s challenges, and how we can address them

  • 来源:Rust Blog
  • 吐槽热度分:22
  • 链接:https://blog.rust-lang.org/2026/03/20/rust-challenges/
  • 摘要:Rust 官方这篇文章承认,Rust 的难点并不只在 borrow checker(借用检查器)入门门槛。初学者会卡在 ownership(所有权),而有经验的用户又会遇到 async(异步)复杂性、认证缺口和生态成熟度等更具体的工程问题。

2. 360 billion tokens, 3 million customers, 6 engineers

  • 来源:Vercel Blog
  • 吐槽热度分:22
  • 链接:https://vercel.com/blog/360-billion-tokens-3-million-customers-6-engineers
  • 摘要:Durable 用 6 个工程师支撑了 300 万客户和年化 3600 亿 token 的 AI 业务,这个案例本质上是在展示 agent-first(智能体优先)产品架构对小团队的杠杆效应。更值得注意的是,它同时强调相比 self hosting(自托管)可把 infra cost(基础设施成本)再降 3 到 4 倍。

3. Meet the 2026 Vercel AI Accelerator Cohort

  • 来源:Vercel Blog
  • 吐槽热度分:17
  • 链接:https://vercel.com/blog/2026-vercel-ai-accelerator-cohort
  • 摘要:Vercel 公布了 2026 年 AI Accelerator 入选团队,共 39 支早期创业队伍,分布在美国、欧洲、亚洲和拉美。它想传递的信号很明确:Vercel 不只卖云平台,还在主动塑造下一代 AI startups(AI 创业公司)的基础设施依赖路径。

4. Catalogarr V2.0.0 (previously named catalogerr)

5. Chat SDK brings agents to your users

  • 来源:Vercel Blog
  • 吐槽热度分:15
  • 链接:https://vercel.com/blog/chat-sdk-brings-agents-to-your-users
  • 摘要:Vercel 的 Chat SDK 想解决的问题不是“怎么再做一个聊天框”,而是怎么把 agents(智能体)嵌进用户已经在用的界面和工作流里。文章反映出一个现实:企业内部 agent 爆发后,真正的瓶颈会从模型接入转向多界面、多渠道的一致交互层。

6. Announcing Ingress2Gateway 1.0: Your Path to Gateway API

  • 来源:Kubernetes Blog
  • 吐槽热度分:13
  • 链接:https://kubernetes.io/blog/2026/03/20/ingress2gateway-1-0-release/
  • 摘要:随着 Ingress-NGINX 计划在 2026 年 3 月退场,Kubernetes 生态正在被推向 Gateway API 的迁移窗口。Ingress2Gateway 1.0 的意义不是单纯的迁移工具,而是在帮助组织以更可控的方式完成一次 API design(接口设计)层面的范式切换。

7. Thoughts on OpenAI acquiring Astral and uv/ruff/ty

  • 来源:Simon Willison
  • 吐槽热度分:13
  • 链接:https://simonwillison.net/2026/Mar/19/openai-acquiring-astral/#atom-everything
  • 摘要:Simon Willison 讨论 OpenAI 收购 Astral 时,核心担忧并不是交易本身,而是 uv、ruff、ty 这些越来越“承重”的 Python 开源工具之后会如何治理。对开发者生态来说,最敏感的问题永远是:当关键基础设施被大型模型公司吸收后,开源承诺还能维持多久。

8. Build knowledge agents without embeddings

  • 来源:Vercel Blog
  • 吐槽热度分:12
  • 链接:https://vercel.com/blog/build-knowledge-agents-without-embeddings
  • 摘要:Vercel 这篇文章试图反思传统 embedding stack(嵌入式检索栈)的工程痛点,尤其是出错后几乎无法解释“为什么检到了这个片段”。它提出用 file-system-based agent(基于文件系统的智能体)替代部分向量检索流程,主打可控性和可调试性。

9. Mini Diarium 0.4.8: an encrypted local-only journal written in Rust. Free and Open Source

10. Running Agents on Kubernetes with Agent Sandbox

  • 来源:Kubernetes Blog
  • 吐槽热度分:11
  • 链接:https://kubernetes.io/blog/2026/03/20/running-agents-on-kubernetes-with-agent-sandbox/
  • 摘要:Kubernetes 这篇文章的判断很明确:AI 系统架构正在从短生命周期、无状态调用,转向长期运行、彼此协调的多智能体系统。Agent Sandbox 的价值在于,它试图把 agents(智能体)纳入 Kubernetes 已有的隔离、调度与运维体系。

11. Anthropic’s Claude Code CLI had a workspace trust bypass (CVE-2026-33068). Repository settings loaded before trust dialog. Classic configuration loading order bug in an AI developer tool

  • 来源:Reddit cybersecurity
  • 吐槽热度分:11
  • 链接:https://www.reddit.com/r/cybersecurity/comments/1rz31be/anthropics_claude_code_cli_had_a_workspace_trust/
  • 摘要:Claude Code CLI 被曝出 workspace trust bypass(工作区信任绕过)漏洞,问题根源是仓库配置在 trust dialog(信任对话框)之前就被加载了。对 AI developer tool(AI 开发工具)来说,这类 configuration loading order bug(配置加载顺序缺陷)尤其危险,因为它直接碰到文件系统、命令执行和网络权限边界。

12. Fragments: March 19

  • 来源:Martin Fowler
  • 吐槽热度分:11
  • 链接:https://martinfowler.com/fragments/2026-03-19.html
  • 摘要:Martin Fowler 转引的观点很值得记:把 code review(代码评审)简单理解成“找 bug 的瓶颈”本身就是错误前提。代码评审真正更大的价值,在于判断某段改动是否应该进入产品,以及团队是否愿意长期维护它。

13. Network Performance Issues in Mumbai, India

  • 来源:Cloudflare Status
  • 吐槽热度分:11
  • 链接:https://www.cloudflarestatus.com/incidents/3gp4vwptgdr8
  • 摘要:Cloudflare 在孟买地区出现网络性能事件,受影响用户可能遇到延迟升高和间歇性错误。官方随后完成修复并进入监控阶段,说明这类区域性基础设施抖动依然会直接影响上层服务体验。

14. Disruption with some GitHub services

  • 来源:GitHub Status
  • 吐槽热度分:11
  • 链接:https://www.githubstatus.com/incidents/49xnkj77r7vl
  • 摘要:GitHub 这条状态页原文抓取得很脏,但可以确定它记录的是一场部分 GitHub 服务中断事件。对开发者平台来说,哪怕只是局部故障,也会迅速放大成 CI、协作和交付链路上的连锁影响。

15. Security updates for Thursday

  • 来源:LWN.net
  • 吐槽热度分:10
  • 链接:https://lwn.net/Articles/1063659/
  • 摘要:LWN 这则安全更新汇总列出了 Debian、Fedora、Red Hat 等发行版在 3 月 18 日到 19 日间发布的一批补丁。单条看起来分散,但放在一起就是典型的供应链维护面貌:组件多、节奏快,而且需要持续跟进。

1. [opendataloader-project/opendataloader-pdf] support numpy >= 2.0 since it errors out on numpy >=2.0

2. [TauricResearch/TradingAgents] Bug: OpenAI API error with gpt-5.4 (reasoning_effort not supported)

3. [openrocket/openrocket] [Bug] Dynamic color changing does not work when going from 3D view to 2D view

  • 来源:GitHub Trending Issues
  • 链接:https://github.com/openrocket/openrocket/issues/3056
  • 细节:comments=0; labels=bug, release blocker
  • 摘要:这是一个被标记为 bug 和 release blocker(发布阻塞)的缺陷,优先级明显偏高。当前还没有评论,提出者是 SiboVG。

4. [openrocket/openrocket] Sim recalculates when edited decal is saved

  • 来源:GitHub Trending Issues
  • 链接:https://github.com/openrocket/openrocket/issues/3053
  • 细节:comments=2; labels=bug
  • 摘要:这是一个 bug 类 issue,目前已有 2 条评论,说明已经开始出现最基础的讨论或确认。提交者是 neilweinstock。

5. [obra/superpowers] replace hardcoded /Users/jesse sample paths with generic placeholders

6. [obra/superpowers] Plan did not use TDD requirements

7. [newton-physics/newton] Fix MJCF import bugs found during menagerie correctness testing

  • 来源:GitHub Trending Issues
  • 链接:https://github.com/newton-physics/newton/issues/2170
  • 细节:comments=0; labels=(none)
  • 摘要:这个 issue 目前没有 label,也还没有评论,仍处于等待维护者分流的阶段。提交者是 vreutskyy。

8. [vas3k/TaxHacker] [BUG] deleteFile in models/files.ts uses unsanitized path from database, allowing arbitrary file deletion

  • 来源:GitHub Trending Issues
  • 链接:https://github.com/vas3k/TaxHacker/issues/75
  • 细节:comments=0; labels=(none)
  • 摘要:TaxHacker 有人报告 deleteFile 在拼接文件路径时直接使用了数据库里的未清洗输入,这会导致 arbitrary file deletion(任意文件删除)风险。这个问题很典型,属于路径校验和文件系统边界控制没做好,后果却可能非常严重。

9. [TauricResearch/TradingAgents] Ollama docker

10. [opendataloader-project/opendataloader-pdf] Spurious spaces are getting inserted in PDF with Krutidev text

四、严重产品事故 / issue 雷达

1. Network Performance Issues in Mumbai, India

  • 来源:Cloudflare Status
  • 链接:https://www.cloudflarestatus.com/incidents/3gp4vwptgdr8
  • 摘要:Cloudflare 在孟买地区出现网络性能事件,受影响用户可能遇到延迟升高和间歇性错误。官方随后完成修复并进入监控阶段,说明这类区域性基础设施抖动依然会直接影响上层服务体验。

2. Disruption with some GitHub services

  • 来源:GitHub Status
  • 链接:https://www.githubstatus.com/incidents/49xnkj77r7vl
  • 摘要:GitHub 这条状态页原文抓取得很脏,但可以确定它记录的是一场部分 GitHub 服务中断事件。对开发者平台来说,哪怕只是局部故障,也会迅速放大成 CI、协作和交付链路上的连锁影响。

3. Disruption with Copilot Coding Agent Sessions

  • 来源:GitHub Status
  • 链接:https://www.githubstatus.com/incidents/9jyjvxkz735j
  • 摘要:GitHub 一度出现 Copilot Agent sessions(Copilot 智能体会话)无法正常启动和查看的广泛故障。官方先确认原因并推送缓解措施,随后恢复服务,并承诺后续补充 root cause analysis(根因分析)。

4. Issues with Copilot Coding Agent

  • 来源:GitHub Status
  • 链接:https://www.githubstatus.com/incidents/3gflh59mjhmf
  • 摘要:GitHub Copilot Coding Agent 曾出现性能下降,且 session logs(会话日志)一度无法在 UI 中查看。官方在恢复正常后表示会补充 root cause analysis(根因分析),这说明问题影响到了可观测性和使用连续性。

5. Disruption with Copilot Coding Agent sessions

  • 来源:GitHub Status
  • 链接:https://www.githubstatus.com/incidents/djmkyscrj9jh
  • 摘要:GitHub 另一条状态事件显示,Copilot Coding Agent sessions(Copilot 编码智能体会话)在启动和查看阶段也曾发生大范围异常。官方先提出原因假设,再上线缓解措施并恢复服务,暴露出 agent 平台仍然很依赖脆弱的会话基础设施。

6. Elevated errors across surfaces

  • 来源:Anthropic Status
  • 链接:https://status.claude.com/incidents/6wlrxz9pqz8f
  • 摘要:Anthropic 在多个 Claude surface(Claude 接入面)上出现过身份认证错误升高的问题,影响范围包括 Claude.ai 和 Claude Code。事件虽然很快恢复,但也提醒人们:对 AI 工具来说,认证链路本身就是核心可用性组件。

7. Trivy Security incident 2026-03-19 · GitHub Actions are Actively being Exploited

8. Git operations for users in the west coast are experiencing an increase in latency

  • 来源:GitHub Status
  • 链接:https://www.githubstatus.com/incidents/p08cncy05m4k
  • 摘要:GitHub 这条状态页原文抓取得很脏,但可以确定它记录的是一场部分 GitHub 服务中断事件。对开发者平台来说,哪怕只是局部故障,也会迅速放大成 CI、协作和交付链路上的连锁影响。

9. Trivy Security Scanner GitHub Actions Breached, 75 Tags Hijacked to Steal CI/CD Secrets

10. Elevated errors on Claude Opus 4.6

  • 来源:Anthropic Status
  • 链接:https://status.claude.com/incidents/bf1hsq5gbm9b
  • 摘要:Anthropic 曾短暂出现 Claude Opus 4.6 错误率升高的问题,持续时间不长,但足以影响线上使用体验。此类高端模型的瞬时波动,会直接放大用户对稳定性和可替代性的敏感度。

五、我对今天的判断

今天最值得盯的,不是单个模型又涨了多少分,而是 agent 化开发正在把软件工程问题重新暴露出来。一边是 OpenAI 讨论 internal coding agents 的 misalignment 监测,另一边是 Claude Code CLI 爆出 workspace trust bypass(工作区信任绕过),再加上 GitHub Copilot Agent sessions 连续出现会话级事故,这三件事拼在一起,其实已经很像一条完整研究线索:当 coding agent 真正进入开发主流程后,权限边界、配置加载顺序、会话稳定性和可观测性都会从“工具细节”升级成一等工程问题。

从你的研究优先级看,今天最强的信号仍然落在 SE4AI 与软件供应链安全。比如 Endor Labs 的 AURI、Snyk 对 AI-generated code 的 dynamic testing、以及 Trivy 在 GitHub Actions 上疑似遭遇供应链攻击,都在说明一个现实:AI 代码生产效率上来了,但验证、隔离和供应链信任并没有自动跟上。相比之下,像 Cursor Composer 2、Workers AI 上线 Kimi K2.5、OpenAI 收购 Astral 这些新闻,更像是在抬高基础设施和工具链整合速度。对研究来说,真正有长期价值的切口,应该是如何给 agent-native 开发链路建立可验证、可审计、可恢复的工程保障机制,而不只是继续比较谁的模型更强。


本报告由 RSS 自动汇总。