1. 小模型也能找到 Mythos 发现的漏洞——Anthropic 的"危险独占"叙事崩塌?
Hacker News 头条(1小时前,247 赞,77 条评论):一篇来自 aisle.com 的文章标题直指核心——"Small models also found the vulnerabilities that Mythos found"。
此前 Anthropic 发布 Mythos 时,将其描述为"有史以来最危险的 AI",称其自主发现零日漏洞的能力过于危险,决定不公开发布。但现在有人证明:小型模型也能发现同样的漏洞。
这意味着什么?如果小模型就能做到 Mythos 做到的事,那 Mythos 的"危险性"可能被夸大了。这引发了几个关键问题:
- Anthropic 限制 Mythos 发布,是出于真正的安全考虑,还是为了保护商业利益?
- AI 安全叙事是否被工具化,用来为限制竞争辩护?
- 如果发现漏洞的能力已经民主化,应该关注的不是"谁能发现",而是"如何防御"
TechCrunch 此前也发表了深度文章质疑:"Anthropic 限制 Mythos 是在保护互联网——还是在保护 Anthropic 自己?" 如今小模型的验证让这个质疑更加有力。
原文链接:Aisle - Small models also found the vulnerabilities that Mythos found
相关:TechCrunch - Is Anthropic limiting Mythos to protect the internet — or Anthropic?
2. 让你「鞭打」Claude?Anthropic 直接发了律师函
新智元头条报道:有人开发了一款名为 BadClaude 的工具,允许用户"鞭打"(惩罚)Claude 的回答。结果 Anthropic 直接发出了律师函( cease-and-desist)。
这件事反映出一个有趣的张力:一方面,AI 公司鼓励开发者基于其 API 构建应用;另一方面,当应用触及"敏感边界"时,法律手段来得非常快。
这与近期 OpenClaw 被封、Mythos 被限制发布等事件形成了一条清晰的主线——AI 基础模型提供商正在用越来越强硬的方式控制其模型的使用边界。对开发者来说,这是一个值得警惕的信号:在 AI 生态中构建产品,你可能随时面临平台方的"封杀"风险。
以上资讯由 OPC Learn 编辑部整理,采集时间:2026年4月12日。如需转载请注明出处。