aixpilot.com

Pilot Your Work with AI

浏览每日/每周/每月的广告与 AI 洞察报告,掌握行业动向

← 返回首页
AI日报

AI日报 - 2026-03-24

📅 周期:2026-03-24 ~ 2026-03-24

📝 字数:15892 字

⏰ 生成时间:2026-03-25 05:34:27 CST

AI 深研AI日报-2026-03-24

说明:本日报基于截至北京时间 2026-03-24 当日可获取的公开信息整理。由于公开信息发布时间与时区差异,部分事件发生时间早于 3 月 24 日,但在当日仍是业内讨论与决策焦点,故一并纳入。


一、模型 / 平台动态(≥5 条)

  1. 字节跳动开源多智能体框架 DeerFlow 2.0,加速“超级 Agent”落地

    • 字节跳动在 GitHub 上开源 DeerFlow 2.0,定位为“SuperAgent harness”,能够在沙箱环境中编排子 Agent、长时记忆、工具及消息网关,专门面向代码研发与深度调研任务,目前已累积数万 Star,MIT 协议便于企业二次开发。(github.com)
    • 对业务含义:这类“多 Agent + 沙箱 + 分布式工具”的架构,基本就是未来广告投放助手 / 搜索运营助手 / 店铺运营助手的标准形态,值得在内部 Agent 平台上对标。
  2. OpenClaw 本地 Agent 生态在中国快速出圈,微信上线 clawbot 插件

    • 开源自主智能体 OpenClaw(原 Clawdbot/Moltbot)在 2026 年初爆火,2 月宣布作者加入 OpenAI,项目以基金会形式继续;3 月 6 日腾讯云、百度智能云、阿里云、火山引擎、京东云、美团等集中上线一键部署服务,各地政府推出“龙虾十条”等扶持政策。(zh.wikipedia.org)
    • 3 月 22 日,微信正式上线 “clawbot” 插件,支持在微信聊天界面直接调用 OpenClaw,同时工信部、国家互联网应急中心等多次发布安全风险提示,要求谨慎在办公终端部署。(zh.wikipedia.org)
    • 对业务含义:本地 Agent + 即时通讯入口(微信 / 企业微信)将迅速成为“运营同事”的数字替身,需要同步评估:一方面借力形成“半自动运营体系”,另一方面要建立严格的权限和审计机制,避免数据与账号被 Agent 误操作。
  3. 小米发布 MiMo 系列新大模型(MiMo‑V2‑Pro / Omni / TTS),加码端侧生态

    • 小米在 2026-03-19 宣布推出三款 MiMo 系列大模型:MiMo‑V2‑Pro、Omni 与 TTS,用于通用语言、多模态理解与语音合成;此前已开源 MiMo‑V2‑Flash,并在 OpenRouter 上获得高调用量。(zh.wikipedia.org)
    • 对业务含义:MiMo 系列明确面向 手机与 IoT 端侧场景,对电商广告而言,意味着在小米 OS 生态内可以更低延迟地做端上个性化推荐、搜索重排与多模态创意生成,应尽早对接其推理接口和隐私合规要求。
  4. MiniMax 发布 M2.7 模型,延续“高性价比+开放权重”路线

    • 上海 MiniMax 在 2026 年 3 月发布 MiniMax‑M2.7,延续此前 M2.5 / M2.5‑Lightning 的策略:在保持接近 Claude Opus 4.6 水平的基准表现前提下,大幅压低推理成本,用于生产力场景。(en.wikipedia.org)
    • 对业务含义:国内“高性价比”模型(DeepSeek、Qwen、MiniMax 等)正形成第二梯队,可作为广告 / 推荐系统的 推理后端+批量生成引擎,在成本敏感的展示广告创意、召回文本生成等场景,对比 GPT/Claude 有明显 TCO 优势。
  5. Google 推出 Gemini Embedding 2:统一文本、图片、视频、音频和 PDF 的多模态向量空间

    • Google 近期上线 Gemini Embedding 2gemini-embedding-2-preview),为首个“原生多模态”embedding 模型,可在一次调用中同时处理最长 8k 文本、图片、120 秒视频、80 秒音频与 PDF 页面,显著简化多模态 RAG 管线。(deeplearning.ai)
    • 初步测试显示,该模型在 Massive Text Embedding Benchmark 等数据集上,跨领域检索准确率优于上一代文本嵌入,对 domain shift 更鲁棒,并已在 Gemini API 与 Vertex AI 上提供公测。(deeplearning.ai)
    • 对业务含义:对电商搜索与推荐最直接的价值是 “统一商品多模态表征”:可以用一个 embedding 同时吸收图文详情、短视频种草和语音评价,为多模态召回与向量广告投放提供统一向量底座。
  6. OpenAI Frontier 企业级 Agent 平台持续发酵,成为“AI 协作层”新候选

    • OpenAI 在 2 月正式发布 Frontier 平台,定位为“企业级 AI Agent 管理与编排层”,支持将 CRM、仓库、内部工具与多种模型接入,构建具备权限、审计与身份体系的“AI 同事”。(infoq.com)
    • 最新报道显示,OpenAI 已与 Accenture、BCG、Deloitte、McKinsey、PwC 等咨询公司合作推广 Frontier,用作客户服务自动化、财务流程、运营工作流的统一 Agent 平台。(forum.gnoppix.org)
    • 对业务含义:国内自建 Agent 中台时,可以直接参照 Frontier 的 三层架构:业务上下文层(数据与系统)、Agent 执行/评估层、权限治理层,避免只做“多轮对话机器人”而缺少监控与 SLO。
  7. Anthropic 与美国国防部冲突升级,彰显“安全条款 vs. 政府需求”的张力

    • 美国国防部在 2026-03-04 将 Anthropic 认定为“供应链风险”,要求 6 个月内在军事系统中逐步停用 Claude;此前防长多次以《国防生产法》施压,希望移除 Claude 在军用上的限制条款。(en.wikipedia.org)
    • Anthropic 已发起诉讼,称该认定缺乏事实依据,并获得 Google、Amazon、Apple、Microsoft 等多家科技巨头公开支持;部分联邦机构开始评估从 Claude 迁移到其他供应商(包括 OpenAI)。(en.wikipedia.org)
    • 对业务含义:一方面体现 “安全条款会真实影响大客户成交”;另一方面也提醒电商平台在引入第三方模型做广告审核、风控合规时,要审慎评估后续政策变动与供应商策略导致的切换成本。
  8. [不确定] Claude 在桌面端开放“完整电脑控制”能力的传闻

    • 社区用户报告称,Anthropic 近期为 Mac 端推出更新,使 Claude 可直接控制本地桌面(移动鼠标、打开文件、操作浏览器等),类似更易用版本的 Claude Code / Claude Cowork。该信息目前主要来源于 Reddit 讨论串,Anthropic 官网尚未有明确公告。(reddit.com)
    • [不确定] 建议后续直接关注 Anthropic 官方博客与 Docs,确认该能力的正式范围(是否仅限内测、是否默认开启、权限隔离设计)后,再考虑在生产环境中使用类似“全桌面控制”的 Agent。

二、机器人 / 系统进展(≥3 条)

  1. LATENT:仅用 5 小时“非完美”动作数据,训练人形机器人打网球

    • 北京大学等团队在论文 “Learning Athletic Humanoid Tennis Skills from Imperfect Human Motion Data” 中提出系统 LATENT,利用约 5 小时业余玩家的运动捕捉碎片数据,经校正与组合,在 Unitree G1 上实现高成功率的网球回球,并可与人类持续多拍对拉。(arxiv.org)
    • 关键意义在于降低具身智能的数据采集门槛,通过“准真实 + 强 sim‑to‑real”实现复杂体能技能迁移,为后续在仓储搬运、装配等工业任务上的具身智能提供技术路线参考。
  2. CyboRacket 与人形机器人运动技能的通用 Perception‑to‑Action 框架

    • 新论文 “CyboRacket: A Perception-to-Action Framework for Humanoid Racket Sports” 提出端到端视觉到动作控制框架,利用机载摄像头追踪来球轨迹,将拦截状态映射到 Unitree G1(SONIC 平台)的末端与全身运动命令,同样在网球场景下验证其可行性。(arxiv.org)
    • 与 LATENT 相比,CyboRacket 更强调 在现实视觉条件下的在线轨迹预测与控制闭环,两者叠加说明:人形机器人在复杂物理运动上的“运动智能”正快速跨越从实验室到实战的门槛。
  3. NVIDIA Rubin / Vera Rubin 平台量产在即,AI 计算体系结构全面升级

    • NVIDIA 在 CES / GTC 宣布新一代 Rubin 平台Vera Rubin 超芯片,集成六款新芯片与 NVLink / Transformer Engine / 机架级保密计算等技术,相比上一代平台,训练 MoE 模型可减少约 4 倍 GPU 数量,并在 Vera Rubin NVL72 机架中实现高达 5 倍推理性能、10 倍成本/Token 优化。(investor.nvidia.com)
    • 初始大规模部署包括微软、CoreWeave 等云厂商,以及 Thinking Machines Lab 等初创公司签约的 1GW 级算力合作,意味着 2026 年下半年起大模型训练/推理成本曲线可能出现明显拐点。(nvidianews.nvidia.com)
  4. HBM4 供应格局明朗:SK Hynix 与三星瓜分 Vera Rubin 订单

    • 多家研报与新闻指出,NVIDIA Vera Rubin 平台的 HBM4 订单约 70% 由 SK Hynix 承担,30% 由三星提供,当前未见 Micron 拿到核心 HBM4 设计 Win;SK Hynix 在 HBM 市场份额已超过 60%。(ad-hoc-news.de)
    • 对业务含义:AI 推理成本高度依赖 HBM 价格与供给,当前高集中度意味着 算力成本的系统性风险 主要来自少数韩系供应商的产能与地缘政治,应在采购与多云策略中提前预案。

三、论文 / 技术报告精读(≥3 篇)

1. ArXiv‑to‑Model:有限算力下训练垂直领域科研大模型的工程指南

  • 论文信息

    • 标题:ArXiv-to-Model: A Practical Study of Scientific LM Training
    • 作者与单位:Anuj Gupta 等,独立研究者 / 工程实践团队
    • 时间:2026-02-19 提交 arXiv (arXiv:2602.17288)(arxiv.org)
  • 主要方法

    • 端到端实证案例:在仅 2×A100 GPU 的算力下,从 原始 arXiv LaTeX 源 构建一个 1.36B 参数的科学语言模型(数学、CS、物理),详细描述了元数据过滤、归档校验、LaTeX 抽取、文本归一化、领域感知分词与 Transformer 训练全流程。
    • 通过 24 组实验,系统分析了 数据预处理决策(过滤规则、解析方式)对可用 Token 量与训练稳定性的影响,以及 I/O 与存储对整体吞吐的瓶颈作用。
  • 关键结果

    • 在约 52B 预训练 Token 的“数据富集”场景下,模型训练表现稳定,说明中小规模科学 LLM 在合适数据管线下并不需要“天价算力”。
    • 实测表明:错误的 LaTeX 解析、粗暴过滤策略可导致有效数据量大幅下降,I/O、存储吞吐在中小集群设置下甚至与算力同级成为主要瓶颈。(arxiv.org)
  • 对广告 / 搜索 / 推荐的启示

    • 对电商而言,可以仿照该工程 pipeline 训练“垂直行业小模型”(如家装、3C 评测、母婴、时尚等),而非一味依赖通用大模型:
      • 数据源可替换为商品 Q&A、售后工单、垂直社区帖子和商家知识库。
      • 要高度重视 解析和清洗规范,避免为追求数据“洁净”过度丢弃长尾场景。
    • 这类 1–2B 级小模型可部署在边缘节点或广告投放引擎侧,用于实时 Query 理解 / 商品属性抽取,在保证效果的前提下显著降低延迟与成本。

2. LemmaBench:基于实时 arXiv 的数学推理能力基准

  • 论文信息

    • 标题:LemmaBench: A Live, Research-Level Benchmark to Evaluate LLM Capabilities in Mathematics
    • 作者与单位:Antoine Peyronnet, Fabian Gloeckle, Amaury Hayat 等,欧洲高校 & 研究机构联合
    • 时间:2026-02-27 提交 arXiv (arXiv:2602.24173)(arxiv.org)
  • 主要方法

    • 自动从 arXiv 最新数学论文中抽取 lemma,并重写成自洽的形式(显式列出所有假设与定义),持续生成“活”的 benchmark。
    • 通过 pipeline 保证新加入的题目可不断更新,而旧数据可以开放训练使用,不会污染未来评测。
  • 关键结果

    • 对多款 SOTA 模型测试,在研究级定理证明任务上的 pass@1 仅约 10–15%,显示当前 LLM 在高难度数学推理上仍有巨大差距。(arxiv.org)
  • 对广告 / 搜索 / 推荐的启示

    • 类比到业务:
      • 许多复杂的 出价优化、预算分配、多目标推荐策略,本质上接近“研究级推断”而非教科书习题;当前 LLM 即便在数学上仍远未达标,因此在 高风险自动决策(如大额投放策略全自动调整)上,应坚持“模型辅助 + 策略人审”的混合范式。
    • 可以借鉴其 “动态基准” 思路
      • 为内部 Agent / 优化算法构建实时在线评估集——源自最新 SPU 策略实验、竞品行为与宏观市场变化,而非一次性离线基准。

3. Recursive Language Models 复现:多步推理别“过度思考”

  • 论文信息

    • 标题:Think, But Don't Overthink: Reproducing Recursive Language Models
    • 作者:Daren Wang
    • 时间:2026-03-03 提交 arXiv (arXiv:2603.02615)(arxiv.org)
  • 主要方法

    • 复现并扩展 Recursive Language Models (RLM) 框架:通过将提示与中间状态 offload 到外部 REPL 环境,让 LLM 通过递归调用处理“近乎无限”的上下文。
    • 分别比较:纯 LLM、RLM 深度=1、RLM 深度=2,在使用 DeepSeek v3.2 与 Kimi K2 等开源 Agent 模型上,对 S‑NIAH 与 OOLONG 等复杂推理 & 检索基准进行评测。
  • 关键结果

    • 对复杂推理任务,深度=1 的 RLM 显著提升准确率;但继续加深递归(深度=2)反而导致“overthinking”:性能下降,且推理时延由 3.6 秒飙升至 344.5 秒,Token 成本指数级上升。(arxiv.org)
    • 对简单检索任务,即便是深度=1 的 RLM 也会拉低表现。
  • 对广告 / 搜索 / 推荐的启示

    • 当前很多 Agent 工作流(多工具、多步骤提示链)本质上就是一种“递归语言模型”,这篇工作提示:
      • 复杂策略问题(例如跨渠道预算重分配、多阶段 A/B 设计):可以接受 1 轮“深思熟虑环节”(例如先生成方案、再自评/改写一次)。
      • 简单高频任务(如 Query 重写、类目归一、基础文案改写):不宜堆叠多层自反思与工具调用,否则在延迟和错误率上得不偿失。
    • 实践建议是:为不同任务类型设计 最大递归深度 / 步数上限,并在平台侧强制执行,而不是将“多 hop 推理”交给 Prompt 自由生长。

4. Cross‑Family Speculative Prefill:跨模型族的长上下文压缩

  • 论文信息

    • 标题:Cross-Family Speculative Prefill: Training-Free Long-Context Compression with Small Draft Models
    • 作者与单位:Shubhangi Upasani 等,工业界 + 学术界联合
    • 时间:2026-03-03 提交,13 日更新 v3 (arXiv:2603.02631)(ar5iv.org)
  • 主要方法

    • 研究 “跨模型族 speculative prefill”:用一个轻量的草稿模型(draft model)对长提示进行重要性打分与压缩,再将压缩后的提示送入主力大模型,且 draft 与 target 可以来自不同家族(如 Qwen → LLaMA、DeepSeek → Qwen 等)。
    • 不做额外训练,只依赖注意力权重估计 Token 重要性。
  • 关键结果

    • 跨模型族场景下,压缩后的性能基本保持在 原始全提示的 90–100%,部分任务甚至略有提升(因噪声 Token 被去除);同时 显著降低 time‑to‑first‑token。(ar5iv.org)
  • 对广告 / 搜索 / 推荐的启示

    • 对典型 Agent + RAG 工作流(如“读完全店铺知识 + 用户行为 + 广告策略”后再决策)来说,Prompt 过长是主因之一:
      • 可以在推理层引入 “轻量 draft 模型 + 压缩主模型” 架构:比如以更便宜的开源模型预估 Token 重要性,再把精简后的上下文喂给 GPT/Claude,用于高价值请求。
      • 对在线广告投放系统,这意味着可以在不牺牲复杂上下文的前提下,缩短出价策略 Agent 的响应延迟,提升 QPS 与性价比。

四、本期行动清单(面向广告 / 搜索 / 推荐)

行动 1:建设“多模态统一表征 + Prompt 压缩”的检索与广告底座

  • 适用场景

    • 电商搜索(图文 + 视频 + 直播回放)、信息流推荐、短视频广告定向与召回。
  • 初步落地路径

    1. 在试验环境引入 Gemini Embedding 2 或同类多模态 embedding 模型,构建商品与内容的统一向量(图片、标题、详情、短视频、语音评价统一入模)。(deeplearning.ai)
    2. 对现有向量召回与 RAG 服务进行 A/B,对比点击率、转化率及多模态场景下的相关性提升。
    3. 结合 Cross‑Family Speculative Prefill 思路,在重排 / 策略 Agent 层引入 draft 模型压缩长 Prompt(如用户长历史 + 多轮交互 + 店铺规则),主力模型只处理压缩后的关键信息。(ar5iv.org)
  • 潜在风险与注意事项

    • 多模态 embedding 模型通常为闭源或托管 API,需评估 数据出境与合规
    • Prompt 压缩若配置不当,可能过滤掉对冷门品类或长尾兴趣重要的 Token,需要在早期引入 “安全兜底规则”(如强制保留关键特征词、品牌词、类目信息)。

行动 2:以 DeerFlow / OpenClaw 为模板,设计“有边界的运营 Agent”

  • 适用场景

    • 广告投放运营(撰写素材、搭建计划、日报生成)、搜索运营(热词管理、资源位调度)、推荐运营(活动页模版生成、会场选品建议)。
  • 初步落地路径

    1. 构建类似 DeerFlow 2.0 的“多 Agent + 沙箱 + 工具路由”结构,但将 Agent 的真实执行环境限制在 受控的中间层(如专用浏览器容器或模拟后台 API),避免直接操控生产系统。(github.com)
    2. 借鉴 RLM 研究结论,将运营 Agent 的“自反思与多步规划”深度 硬性限制在 1–2 层,同时记录步骤与决策理由,便于人工快速审核与回滚。(arxiv.org)
    3. 对标 OpenClaw 在中国遭遇的安全与合规争议,提前设计:
      • 权限模型(最小权限 + 只读/读写拆分);
      • 日志与审计(所有高风险操作需可追溯到 Agent 版本与 Prompt);
      • 灰度策略(从单业务线 / 单人群试点,逐步放量)。(zh.wikipedia.org)
  • 潜在风险与注意事项

    • OpenClaw 在错误配置下暴露控制面板与 API 密钥的教训表明:“Agent 能做什么” 必须由基础设施而非 Prompt 来约束
    • 对外宣发时,要谨慎避免夸大“全自动运营”“无人值守”的表述,防止在合规与舆论层面出现反噬。

五、论文与链接列表(本期涉及)

说明:以下为本期日报中提及的主要论文与技术页面,按类别归类,URL 以代码形式给出便于查阅。

(一)大模型 / Agent / 系统论文

  1. ArXiv‑to‑Model: A Practical Study of Scientific LM Training

    • arXiv: 2602.17288
    • 链接:https://arxiv.org/abs/2602.17288 (arxiv.org)
  2. LemmaBench: A Live, Research-Level Benchmark to Evaluate LLM Capabilities in Mathematics

    • arXiv: 2602.24173
    • 链接:https://arxiv.org/abs/2602.24173 (arxiv.org)
  3. Think, But Don't Overthink: Reproducing Recursive Language Models

    • arXiv: 2603.02615
    • 链接:https://arxiv.org/abs/2603.02615 (arxiv.org)
  4. Cross-Family Speculative Prefill: Training-Free Long-Context Compression with Small Draft Models

    • arXiv: 2603.02631
    • 链接:https://arxiv.org/abs/2603.02631 (ar5iv.org)
  5. Learning Athletic Humanoid Tennis Skills from Imperfect Human Motion Data

    • arXiv: 2603.12686
    • 链接:https://arxiv.org/abs/2603.12686 (arxiv.org)
  6. CyboRacket: A Perception-to-Action Framework for Humanoid Racket Sports

    • arXiv: 2603.14605
    • 链接:https://arxiv.org/abs/2603.14605 (arxiv.org)
  7. Thinker: A vision-language foundation model for embodied intelligence

    • arXiv: 2601.21199
    • 链接:https://arxiv.org/abs/2601.21199 (arxiv.org)

(二)模型 / 平台与 Agent 相关链接

  1. DeerFlow 2.0 GitHub 仓库

    • https://github.com/bytedance/deer-flow (github.com)
  2. DeepLearning.AI The Batch – “DeerFlow 2.0 puts new spin on Claw-like agents”

    • https://www.deeplearning.ai/the-batch/deerflow-2-0-puts-new-spin-on-claw-like-agents/ (deeplearning.ai)
  3. MiMo (大模型) – 小米集团

    • 介绍条目:https://zh.wikipedia.org/wiki/MiMo_(大模型) (zh.wikipedia.org)
  4. MiniMax Group 与 MiniMax‑M2.7

    • 公司条目:https://en.wikipedia.org/wiki/MiniMax_Group
    • 官方产品页:https://www.minimax.io (en.wikipedia.org)
  5. OpenClaw 官方网站与 GitHub

    • 介绍条目:https://zh.wikipedia.org/wiki/OpenClaw (zh.wikipedia.org)
    • 仓库:https://github.com/openclaw/openclaw
  6. Anthropic–美国国防部争端概览

    • 条目:https://en.wikipedia.org/wiki/Anthropic
    • Project Maven 条目:https://en.wikipedia.org/wiki/Project_Maven (en.wikipedia.org)
  7. OpenAI Frontier 企业 Agent 平台相关报道

    • InfoQ:https://www.infoq.com/news/2026/02/openai-frontier-agent-platform/ (infoq.com)
    • BusinessToday:https://www.businesstoday.in/technology/news/story/openai-launches-frontier-to-help-enterprises-build-and-manage-ai-agents-514904-2026-02-06 (businesstoday.in)
    • Economic Times EnterpriseAI:https://enterpriseai.economictimes.indiatimes.com/news/industry/openai-launches-frontier-revolutionizing-enterprise-ai-with-integrated-agents/127998077 (enterpriseai.economictimes.indiatimes.com)
    • The Decoder:https://the-decoder.com/openai-partners-with-major-consulting-firms-to-push-frontier-agent-platform/ (the-decoder.com)
  8. Google Gemini Embedding 2 官方与技术解读

    • Google Cloud 社区文章:https://medium.com/google-cloud/what-you-need-to-know-about-the-gemini-embedding-2-model-c7721a89a067 (medium.com)

(三)系统与硬件 / 产业链链接

  1. NVIDIA Rubin / Vera Rubin 平台官方信息

    • 投资者新闻稿:https://investor.nvidia.com/news/press-release-details/2026/NVIDIA-Kicks-Off-the-Next-Generation-of-AI-With-Rubin--Six-New-Chips-One-Incredible-AI-Supercomputer/default.aspx (investor.nvidia.com)
    • 技术博客:https://developer.nvidia.com/blog/inside-the-nvidia-rubin-platform-six-new-chips-one-ai-supercomputer/ (developer.nvidia.com)
  2. Thinking Machines Lab 与 NVIDIA 合作

    • 条目:https://en.wikipedia.org/wiki/Thinking_Machines_Lab (en.wikipedia.org)
  3. HBM4 供应格局与 SK Hynix / 三星相关报道

    • “SK Hynix Emerges as Indisputable AI Memory King …” 报道:https://www.ad-hoc-news.de/... (ad-hoc-news.de)
    • AInvest 相关分析:https://www.ainvest.com/news/micron-earnings-surge-hbm4-exclusion-structural-risk-lurks-beneath-term-pop-2603/ (ainvest.com)

(四)新闻聚合 & 其他参考(C 类,仅作线索)

  1. Bush AI Daily News – One-Minute Daily AI News 3/23/2026

    • https://bushaicave.com/2026/03/23/one-minute-daily-ai-news-3-23-2026/ (bushaicave.com)
  2. Reddit – r/BlackberryAI《Ai news3/24》

    • https://www.reddit.com/r/BlackberryAI/comments/1s2bmi9/ai_news324/ (reddit.com)

注:C 类来源仅用于发现线索,正式判断与结论均已尽量回溯至 A/B 类一手或权威来源。对于仍存不确定的信息,已在正文中以「[不确定]」显式标注。