2026.03.26DAILY REPORT

苹果封杀AI代码生成应用,OpenAI关停Sora释放算力

17 ·2026.03.26
01 / 资讯2026.03.25 14:18

苹果封杀AI代码生成应用,OpenAI关停Sora释放算力

两件独立的事。苹果开始以政策理由封杀 Replit、Vibecode 等 AI 代码生成应用,审查低质量 AI 应用涌入 App Store 的问题。另一边,OpenAI 关停 Sora 视频生成产品,原因是高成本低活跃,释放出的算力将投入下一代模型开发。两件事共同指向同一个趋势:AI 应用生态正在经历第一轮洗牌。

02 / 发布2026.03.25 18:00

OpenAI发布模型行为准则框架

OpenAI发布模型行为准则(Model Spec),公开框架平衡AI系统安全、用户自由和问责制。该准则为AI系统发展提供指导原则,强调在确保安全的同时保持用户控制力。

032026.03.26 00:01

Google发布Lyria 3 Pro音乐模型

Google DeepMind发布Lyria 3 Pro音乐生成模型,支持更长曲段创作并增强结构感知能力。该模型将逐步集成到更多Google产品中,提升AI音乐创作质量。

042026.03.26 00:00

Lyria 3音乐模型通过Gemini API开放

Google通过Gemini API开放Lyria 3音乐生成模型付费预览,用户也可在Google AI Studio进行测试。新模型支持更复杂的音乐结构创作,面向专业音乐人。

05 / 资讯2026.03.26 03:02

GitHub Copilot更新用户数据使用政策

GitHub宣布4月24日起,将免费版、专业版和Pro+版用户的交互数据用于AI模型训练,用户可选择退出。此举引发开源社区对数据隐私的担忧。

06 / 观点2026.03.25 18:28

人类身份验证测试:人机界限模糊

BBC Future报道了一个人试图向亲属证明自己不是AI深fake的测试。实验表明,即使使用生物特征和行为模式验证,普通人仍难以准确区分人类与AI代理。

07 / 发布2026.03.26 08:31

Claude Code更新:新增PowerShell工具

Claude Code v2.1.84版本发布,为Windows用户添加PowerShell工具预览功能。同时支持环境变量覆盖默认模型能力检测,提升第三方应用兼容性。

082026.03.26 05:36

OpenAI Codex发布0.117.0-alpha.19版

OpenAI Codex发布最新alpha版本0.117.0-alpha.19,继续优化代码生成能力和API稳定性。该版本主要针对开发者的代码补全功能进行改进。

092026.03.26 01:06

OpenClaw更新:增强OpenAI兼容性

OpenClaw 2026.3.24版本发布,新增/v1/models和/v1/embeddings接口,改进客户端和RAG兼容性。同时优化工具展示功能,使代理能显示实际可用工具。

102026.03.25 20:04

Dify发布1.13.3版本,功能更新说明

Dify团队正式发布1.13.3版本更新,本次更新主要优化了LTS版本的性能和稳定性。新版本修复了若干已知问题,并针对企业用户提供了更安全的配置选项。开发者可通过官方文档获取完整的更新日志和迁移指南。此次更新将进一步推动企业级AI应用部署的便利性。

11 / 研究2026.03.25 12:00

稀疏特征技术将注意力计算成本降低90%

最新研究提出通过特征稀疏化技术,将Transformer模型处理超长文本的计算成本从O(n²d)降至O(n),实现了90%的性能提升。该方法在保持模型精度的同时,显著降低了内存占用和推理时间。研究人员已在多个基准测试中验证了其有效性,这一突破将为长文本处理提供更高效的解决方案。

122026.03.25 13:00

Google推出TurboQuant,AI模型压缩率提高20倍

Google Research发布TurboQuant技术,通过极端压缩方法将AI模型大小压缩至原来的1/20,同时保持95%以上的性能。该技术结合了量化和稀疏化方法,特别适合边缘设备部署。研究表明,在图像分类任务中,压缩后的模型在移动设备上的推理速度提升了3倍。这项技术将大幅降低AI应用在资源受限环境中的部署门槛。

132026.03.25 12:00

层内局部信息评分让LLM识别错误更准确

研究人员提出基于层内局部信息评分的不确定性估计方法,能更准确识别LLM的自信错误。该方法通过分析模型中间层的局部信息特征,实现了比传统输出启发式方法高30%的准确率。这项研究为构建更可靠的AI系统提供了新思路,特别适用于医疗、法律等高风险领域。

142026.03.25 12:00

任务级自回归推理让AI更准确识别问题缺陷

新研究提出任务级自回归推理框架,能显著提升LLM对输入问题缺陷的识别能力。实验显示,该方法使模型在识别病态输入时的准确率提高了45%,同时保持正常的输出质量。研究团队指出,这种改进主要源于模型能够先分析问题质量再生成回答,解决了传统模型’明知有问题仍输出答案’的矛盾。

152026.03.25 12:00

STEM Agent:支持多协议的自适应AI代理架构

研究人员推出STEM Agent框架,实现了首个支持多交互协议的自适应AI代理系统。该架构能动态调整工具集成策略和用户模型,突破了传统代理框架的协议限制。实验表明,STEM Agent在跨场景任务中的适应性比现有系统高出60%。这项成果将推动AI代理在更复杂环境中的应用。

162026.03.25 12:00

SRM:AI代理的分布式攻击防御机制

研究团队提出会话风险记忆(SRM)机制,专门防御AI代理面临的分布式攻击。该技术通过时间维度的授权检查,能识别被分解的恶意行为模式。实验证明,SRM在防范复杂攻击时的准确率达到92%,比传统方法提高35%。这项研究对提升AI系统的安全性具有重要意义。

172026.03.25 12:00

金融文档处理:多代理LLM架构性能对比研究

最新研究全面对比了多代理LLM架构在金融文档处理中的表现,分析了不同编排模式的成本-准确率权衡。研究团队测试了6种主流架构,发现协作式代理在保持90%准确率的情况下,计算成本降低了40%。该研究为金融AI系统架构设计提供了重要参考,特别适合处理复杂的监管文档。

chat_bubble对今日内容有什么想法?