【美联社科技讯】2026 年 4 月 30 日,谷歌 Chrome 团队正式发布 Prompt API,这项浏览器内置 AI 功能一经上线,便在 Hacker News 引发全球开发者广泛热议。该 API 无需开发者申请 API 密钥、无需联网,仅需几行 JavaScript 代码,即可调用 Chrome 内置的 Gemini Nano 轻量级模型,在用户设备本地完成端到端的 AI 推理。本文将提供全流程实操指南,帮助开发者快速启用这项浏览器原生 AI 能力。
Prompt API 是 Chrome 内置 AI 架构的核心组件,允许开发者通过自然语言指令,直接调用设备本地的 Gemini Nano 模型完成推理任务。Gemini Nano 是谷歌专为端侧运行优化的轻量级模型,无需依赖云服务器即可在本地完成全流程运算。目前该 API 仍处于实验阶段,开发者可通过 Chrome Canary、Dev 渠道,或是 Chrome 137 及以上版本的实验性功能开关启用。
一、浏览器版本选择与功能配置
目前 Chrome 主流稳定版暂未开放 Prompt API 的网页端调用权限,开发者需要安装 Chrome Canary(金丝雀版)或 Chrome Dev(开发者版)。其中 Canary 版对新特性的支持更新最快,建议单独安装该版本用于 AI 功能体验,避免影响主力浏览器的日常使用。
安装完成后,按以下步骤启用核心功能开关:
- 在浏览器地址栏输入 chrome://flags,进入实验性功能管理页面;
- 找到 #prompt-api-for-gemini-nano 选项,设置为 Enabled,这是调用 Gemini Nano 模型的总开关;
- 找到 #optimization-guide-on-device-model 选项,设置为 Enabled BypassPerfRequirement,这是完成本地模型下载的核心开关;
- (可选)如需使用网页摘要功能,找到 #summarization-api-for-gemini-nano 选项,设置为 Enabled。
完成上述设置后,必须对浏览器执行冷重启。需要完全退出浏览器,在任务管理器或活动监视器中关闭所有 Chrome 相关进程后重新启动,才能确保所有实验性功能设置生效。
二、本地 Gemini Nano 模型下载部署
浏览器重启后,即可开始本地模型的下载部署,全程无需任何额外申请或付费凭证,全部在 Chrome 内自动完成。
- 在地址栏输入 chrome://components/,进入浏览器组件管理页面;
- 在组件列表中找到 “Optimization Guide On Device Model” 选项,点击下方的 “Check for update” 按钮;
- 点击后浏览器会在后台自动下载 Gemini Nano 模型文件,完整文件大小约 4GB。下载进度不会实时显示,可每隔 1-2 分钟刷新页面查看,当版本号从 0.0.0.0 变为具体的日期版本号时,即代表下载完成。
下载完成后,开发者可在地址栏输入 chrome://on-device-internals,通过 “Model Status” 标签页,查看模型名称、版本、存储路径、文件大小等全量诊断信息,确认模型已正确加载。
三、编写并运行你的首个本地 AI 脚本
模型完成本地部署后,即可通过简单的代码完成首次本地 AI 调用。按下 F12 打开 Chrome 开发者工具,切换到 Console 控制台标签页,运行以下测试代码:
javascript
运行
async function testPromptAPI() {
// 第一步:检测API可用状态
const availability = await LanguageModel.availability();
console.log('可用状态:', availability);
// 返回值说明:available可直接使用、downloading下载中、unavailable不支持
if (availability !== 'available') {
console.log('Prompt API 暂不可用,请检查flags配置或等待模型下载完成');
return;
}
// 第二步:创建会话实例
const session = await ai.languageModel.create();
// 第三步:发送提示词,完成本地推理
const response = await session.prompt('用三句话解释为什么AI在浏览器里运行很重要');
console.log(response);}
testPromptAPI();
上述代码中,首先通过 LanguageModel.availability () 方法检测当前环境是否满足运行条件,根据返回值判断模型状态。整个推理过程全部在用户设备本地完成,所有用户数据不会上传至云端。
这项能力的核心,是模型通过 WebAssembly 或 WebGPU 实现硬件加速,所有输入内容和计算过程全部保留在用户终端,既实现了极致的隐私保护,也天然支持无网络环境下的 AI 功能运行。
四、硬件运行门槛与要求
需要明确的是,Prompt API 对设备硬件有明确门槛,并非所有设备都能正常运行。谷歌官方发布的具体要求如下:
- 操作系统:Windows 10/11、macOS 13(Ventura)及以上版本、Linux 系统;
- 存储空间:至少 22GB 可用磁盘空间(模型文件约占 4GB,运行过程需额外的缓存与交换空间);
- GPU 模式:需配备显存大于 4GB 的独立显卡,音频处理相关功能必须使用 GPU 模式运行;
- CPU 模式:至少 16GB 内存及 4 核以上 CPU。
设备达到上述硬件要求,即可完整体验免费、离线、高隐私性的本地 AI 能力。
五、行业展望与最优架构设计
从 2026 年 5 月发布的 Chrome 148 稳定版更新来看,Gemini Nano 正在逐步成为浏览器的标配模型。Mozilla 已就 Prompt API 推向 Web 标准过程中可能出现的平台绑定问题表达了担忧,但这恰恰印证了这项技术对行业的深远影响 —— 如同当年 JavaScript 的标准化进程一样,浏览器 AI 能力正从概念走向全民普及。
对于 Web 应用开发者,行业通用的最优解是设计分层架构:优先检测用户浏览器是否支持 Prompt API,若支持且任务复杂度较低,直接使用本地 AI 完成处理,兼顾免费、低延迟、高隐私安全的核心优势;当任务超出本地模型处理能力时,再自动降级到云端模型,通过 API 密钥调用 Gemini Pro、Claude 等大模型。
这种 “端云混合” 的设计模式,同时兼顾了本地推理的低延迟、高隐私优势,与云端大模型的高精度、强泛化能力,将成为未来 Web 产品的标准工程结构。
技术对人机交互的改变,往往始于一行不起眼的代码。await LanguageModel.availability () 不仅是一个实验性 API,更代表着免费、免密钥、纯本地运行的 AI 能力的普及。2026 年,浏览器正在成为操作系统之上的 AI 新生态入口,而这行简单的代码,就是开发者参与这场行业变革的起点。
对于需要处理高复杂度 AI 任务、追求云端大模型稳定调用体验的开发者及企业用户,UseAIAPI 提供了全链路一站式解决方案,三大核心权益全面解决大模型调用痛点。
其一,全量主流大模型一站式无缝接入。平台已完成全球热门 AI 大模型的全覆盖,包括 Claude、Gemini、ChatGPT、DeepSeek 等最新版本模型,无需用户单独对接多个平台、处理多账号资质审核与风控问题,开箱即可实现平滑调用,大幅降低研发对接、日常运维的时间与人力成本。
其二,专属企业级定制化服务。针对企业级用户,平台可提供全流程定制化接入方案与 7×24 小时专属技术支持,彻底解决账号风控、调用限流、高并发稳定性、数据安全合规等核心需求,可根据业务场景定制专属算力调度方案,保障业务长期稳定运行,无需用户投入精力维护底层调用架构。
其三,行业极致成本优势。平台所有大模型调用费用,最低可享官方定价 5 折优惠,大幅削减高频调用、高强度内容生成、长上下文会话等场景下的算力消耗成本,即便是大流量生产级业务,也无需为高额的 API 调用费用担忧。