12 月 12 日消息,在 OpenAI 发布 GTP-5.2 之后,谷歌紧接着就推出了更强大的 Gemini Deep Research 深度研究智能体,同时推出全新交互 API(Interactions API)并藉此首次面向开发者开放。
此外,谷歌还开源了全新的深度搜索评估基准 DeepSearchQA,用于衡量多步骤复杂检索任务中的研究全面性。此次升级标志着 AI 自主研究能力正式进入工业化应用阶段。
Gemini Deep Research 基于 Gemini 3 Pro 构建,专为长周期的内容收集与综合任务优化,幻觉率降低 40%,是谷歌迄今“最具事实性”的模型,并可通过专项训练提升复杂任务中的报告质量。谷歌表示,通过扩展面向搜索的多步骤强化学习,该智能体能够在复杂信息环境中以更高精度自主导航。
谷歌 DeepMind 产品经理路卡斯・哈斯(Lukas Haas)在 X 上透露,Gemini Deep Research 已经实现 SOTA,在谷歌新基准测试上得分 46.4%,在 BrowseComp 上与 GPT-5 Pro 相当,但价格只有其 1/10 左右。
Deep Research 会反复规划研究路径,包括形成搜索查询、阅读结果、识别缺口并再次搜索。本次升级带来显著增强的网页搜索能力,使其能深入网站获取具体数据。
据介绍,该智能体在 Humanity's Last Exam (HLE 人类终极考试)、DeepSearchQA 及 BrowseComp 中取得最新最优成绩,并可在显著更低成本下生成深入研究报告。谷歌称,这项能力未来将应用到 Google Search、NotebookLM、Google Finance 及 Gemini App 之中。
DeepSearchQA:面向复杂研究智能体的全新评测基准
由于现有评测难以体现真实世界的多步骤研究复杂性,谷歌同步宣布开放 DeepSearchQA 数据集与工具。该基准包含跨 17 个领域、900 个“因果链”任务,每一步均依赖前序分析,要求智能体生成详尽答案集,从而衡量其研究精度与检索全面性。
谷歌表示,DeepSearchQA 还能作为“思考时间”效益的诊断工具。内部测试显示,让智能体执行更多搜索与推理步骤可显著提升表现,这部分将在未来版本中继续探索。
开发者可访问数据集、排行榜与 Colab 示例,并阅读数据集技术报告。
Deep Research 在实际领域的早期应用
谷歌称,Gemini Deep Research 已在需要高精度和上下文理解的多个行业中展现出显著效果,包括金融服务、生物技术和市场研究。
在金融行业,企业利用 Deep Research 自动化尽调中的早期信息收集环节,如整合市场信号、竞争格局与合规风险,从而提升研究效率。
在科研领域,Axiom Bio 使用该智能体处理药物毒性预测相关的文献分析,获得更高的研究深度与颗粒度,加速药物开发流程。
开发者能力:文件解析、结构化输出、引用管理
通过 Interactions API,开发者可调用 Gemini Deep Research 构建下一代自动化研究工具,主要特性包括:
统一信息综合:整合上传文件(PDF、CSV 等)和公共网页数据,并能处理大上下文量。
可控报告结构:可通过提示词定义输出结构、标题、表格格式等。
精细引用:为报告中各项事实提供细粒度来源。
结构化输出:支持 JSON schema 以便下游处理。
Interactions API
开发者可通过 Google AI Studio 的 Gemini API Key 使用 Interactions API 构建应用。
谷歌表示,未来更新将加入原生图表输出、扩展 Model Context Protocol(MCP)支持以接入更多自定义数据源,并在企业服务平台 Vertex AI 上提供 Deep Research。