1. Anthropic 限制 Mythos Preview 模型访问权限,因其可自主发现并利用软件漏洞
Anthropic 宣布将 Mythos Preview 模型的访问权限限制在少数机构范围内。测试发现该模型能够自主识别并利用数万个软件漏洞,在超过 80% 的案例中成功复现并完成漏洞利用。这一发现引发了业界对前沿 AI 模型自主攻击能力的广泛讨论,也凸显了 AI 安全研究的紧迫性。
2026年04月14日 · windyviews.com
Anthropic 宣布将 Mythos Preview 模型的访问权限限制在少数机构范围内。测试发现该模型能够自主识别并利用数万个软件漏洞,在超过 80% 的案例中成功复现并完成漏洞利用。这一发现引发了业界对前沿 AI 模型自主攻击能力的广泛讨论,也凸显了 AI 安全研究的紧迫性。
Meta 正式发布由首席 AI 官 Alexandr Wang 领导的超级智能实验室(Meta Superintelligence Labs)打造的首个 AI 模型 Muse Spark。得益于改进的训练技术和重建的基础设施,该模型在仅使用十分之一算力的条件下,达到了此前中型 Llama 4 模型的性能水平。Meta 计划以混合策略发布——部分开源、部分闭源。
Google 发布 Gemma 4 系列开源模型,定位为其迄今最智能的开放权重模型,专门针对高级推理和智能体(agentic)工作流进行了优化。与此同时,中国开源模型 GLM-5.1、Kimi K2.5、Qwen3.5 在多项行业基准上持续领先,Cursor 甚至基于 Kimi 2.5 构建了其 Composer 2 功能。
OpenAI 发布 GPT-5.3-Codex-Spark,这是首个在 Cerebras 晶圆级芯片(而非传统 NVIDIA GPU)上运行的生产级 AI 模型,大幅提升了实时交互编程场景的吞吐量和响应速度。同时,OpenAI 扩展了 Responses API,新增 shell 工具、智能体执行循环、上下文压缩等功能以支持更复杂的 agentic 工作流。
斯坦福大学人本人工智能研究所(HAI)今日发布 2026 年度 AI 指数报告。报告指出,尽管此前有"AI 发展即将触顶"的预测,顶级模型的能力仍在稳步提升。Anthropic 在前沿模型排名中领先,xAI、Google 和 OpenAI 紧随其后。
白宫于 3 月 20 日发布《国家人工智能政策框架》,提出七大支柱——涵盖儿童保护、知识产权、言论自由、创新优先及联邦统一监管等方向,并明确建议国会不设立新的 AI 监管机构,转而依托现有行业监管体系。该框架试图以联邦法规取代各州"拼凑式"的 AI 立法,但州与联邦之间的监管权博弈仍在加剧。
PwC 最新 AI 绩效研究显示,绝大多数企业仍停留在 AI 试点阶段,仅约 20% 的领先企业真正将 AI 转化为可衡量的财务回报。报告指出,这些领跑者的关键差异在于将 AI 聚焦于业务增长而非单纯降本。约四分之三的企业尚未从 AI 投资中获得实质价值,2026 年将成为"证明 AI 价值"的关键之年。
Nature 发表的一项新研究表明,在涉及多步骤推理和复杂实验设计的科学任务中,人类研究者的表现仍然显著优于当前最先进的 AI 智能体。该研究为"AI 将很快取代科学家"的论调泼了冷水,同时也为 AI 辅助科研的实际边界提供了有价值的参考。
本周 AI 行业呈现三条主线:一是前沿模型竞赛白热化——Anthropic Mythos 的自主漏洞利用能力敲响安全警钟,Meta、Google、OpenAI 则在效率和开源策略上各出奇招;二是 AI 价值兑现进入"验证期",PwC 报告揭示赢家通吃格局,多数企业仍在试点泥潭中挣扎;三是监管博弈升温,白宫试图以联邦框架统一各州碎片化立法,但产业资本已提前涌入 2026 中期选举,政策走向充满变数。