← 返回 Blog

保姆级指南:3分钟让你的网页拥有本地AI——Chrome Prompt API 最新试用教程

【美联社科技讯】2026 年 4 月 30 日,谷歌 Chrome 团队正式向全球开发者开放 Prompt API,相关话题迅速以 827 个点赞登顶 Hacker News 榜单榜首,评论区引发全球开发者热议。数十万工程师在看到技术文档的第一时间意识到:过去五年苦心构建的各类云端 AI 服务,从此不再是 Web 应用实现 AI 能力的唯一选择。 这项技术的...

【美联社科技讯】2026 年 4 月 30 日,谷歌 Chrome 团队正式向全球开发者开放 Prompt API,相关话题迅速以 827 个点赞登顶 Hacker News 榜单榜首,评论区引发全球开发者热议。数十万工程师在看到技术文档的第一时间意识到:过去五年苦心构建的各类云端 AI 服务,从此不再是 Web 应用实现 AI 能力的唯一选择。

这项技术的颠覆性,用一句话就能概括:开发者在浏览器控制台敲下一行 const session = await ai.languageModel.create () 代码,即可直接调用 Gemini Nano 模型在用户设备本地完成 AI 推理。全程无需配置 API 密钥、无需搭建服务器、无需跨境网络支持,更没有按 Token 计费的账单,所有用户数据全程锁死在设备本地,不会向外传输一分一毫。

浏览器原生 AI 的落地,不再是三个月后的技术规划,也无需复杂的企业审批流程,只需要开发者打开 Chrome Canary 浏览器,复制几行代码,就能完成全部部署。以下为经过实测验证的 3 分钟快速上手指南,全流程无复杂操作,新手也能顺利落地。

第一分钟:开启浏览器的实验性功能开关

在编写任何代码之前,首先需要完成运行环境的配置。截至 2026 年 5 月初,Prompt API 仍处于实验性阶段,Chrome 主流稳定版暂不支持网页端调用,开发者需要单独安装 Chrome Dev(开发者版)或 Chrome Canary(金丝雀版)浏览器。

实测结果显示,Chrome Canary 对新特性的支持更及时,是体验该功能的最优选择。开发者可采用双浏览器策略:日常浏览使用稳定版,单独安装 Canary 版体验 AI 功能,确保两条使用线互不干扰。

安装完成后,在浏览器地址栏输入 chrome://flags,进入 Chrome 实验性功能配置页面,找到并开启两个核心开关:

  • #prompt-api-for-gemini-nano:选择 Enabled,这是调用 Gemini Nano 模型的总开关,未开启则后续所有操作均无法生效;
  • 若直接选择 Enabled 无法生效,可选择 Enabled BypassPerfRequirement,该选项会强制 Chrome 下载模型,即便设备未完全达到官方发布的硬件标准。

设置完成后,仅关闭浏览器窗口无法让配置生效,需要在任务管理器或活动监视器中,将所有 Chrome 相关进程全部关闭后重启浏览器,完成配置的冷启动。

第二分钟:完成本地模型文件下载部署

浏览器重启后,AI 引擎落地前的最后一步,是让 Chrome 完成 Gemini Nano 模型文件的本地下载。该模型不会预装在浏览器安装包中,而是在用户首次调用相关功能时按需下载。

在地址栏输入 chrome://components/,在组件列表中找到 Optimization Guide On Device Model 选项,点击下方的 Check for update 按钮,Chrome 便会开始从远端服务器下载模型文件。桌面版 Nano v3 模型大小约 4.27GB,不同版本文件大小在 2.7GB 至 4.27GB 之间,建议在稳定的 Wi-Fi 环境下完成下载。

下载进度条不会实时显示,开发者可每隔 1-2 分钟手动刷新页面,当版本号从 "0.0.0.0" 变为具体的日期版本号时,即代表下载完成。

谷歌官方建议,为该模型预留至少 22GB 的可用磁盘空间。尽管模型本身仅占用 4GB 多的存储空间,但运行过程中需要额外空间用于解压、数据交换和热更新。若磁盘空间不足,可检查设备是否连接不计流量网络,以及是否满足 GPU 或 CPU 模式的硬件要求。

完成下载后,开发者可访问 chrome://on-device-internals/ 内部状态面板,确认模型是否正确加载,该面板会提供模型路径、版本参数等全量诊断信息。

第三分钟:编写首个本地 AI 程序

模型完成本地部署后,即可通过代码验证整个调用流程。按下 F12 打开 Chrome 开发者工具,切换到 Console 控制台标签页,执行以下测试代码,即可完成首次本地 AI 调用:

javascript

运行

async function testPromptAPI() {

// 第一步:检查API可用状态

const availability = await LanguageModel.availability();

console.log('可用状态:', availability);

// 返回值说明:'available'可直接使用、'downloading'下载中、'unavailable'不支持

if (availability !== 'available') {

console.log('Prompt API 暂不可用,请检查flags配置或等待模型下载完成');

return;

}

// 第二步:创建会话实例

const session = await ai.languageModel.create();

// 第三步:发起提示词调用,完成本地推理

const response = await session.prompt('用三句话解释为什么AI在浏览器里运行很重要');

console.log(response);}

testPromptAPI();

实际运行结果显示,第一轮提示词调用会有轻微加载迟滞,这是模型首次载入内存的冷启动时间,后续调用即可体验到零网络延迟的本地推理速度。

同时,该 API 原生支持多轮对话上下文记忆,无需开发者手动维护上下文内容,基础对话管理逻辑示例如下:

javascript

运行

// 创建全局会话实例let session = await ai.languageModel.create();

// 多轮对话示例,模型会自动记忆上下文内容await session.prompt('我的名字叫小明');await session.prompt('我叫什么名字?'); // 模型输出:你的名字叫小明

核心避坑指南:兼容性处理与混合架构设计

整套实操流程耗时不到 3 分钟,但有一个核心兼容性问题需要开发者重点关注:目前 Prompt API 仅 Chrome 浏览器支持,Firefox、Safari 等其他浏览器暂不兼容。若代码中直接调用 ai.languageModel.create () 方法,在不支持该 API 的浏览器中会出现页面白屏报错,需要开发者做好优雅降级处理。

行业通用的最优解决方案,是打造 “本地优先、云端兜底” 的混合模式架构:

  • 先通过 LanguageModel.availability () 探测浏览器环境状态,返回 available 则直接启用本地 AI 能力;
  • 返回 downloading 时,向用户展示 “浏览器正在下载所需的 AI 模型,请稍候...” 的提示,配合进度指示器优化用户体验;
  • 返回 unavailable 时,自动降级调用云端备用通道,如 OpenAI、Claude 等主流大模型 API;
  • 通过 monitor 选项订阅模型下载进度的回调事件,实时更新下载进度,避免用户误以为页面卡死。

需要明确的是,文中所述的 const session = await ai.languageModel.create () 方法,是 Chrome 已正式开放的原生 Prompt API,并非占位符或需要复杂部署的服务,而是浏览器已提供的现成基础设施。

行业影响:Web 开发进入本地 AI 优先新时代

早在 2025 年,谷歌就将 Gemini Nano 模型直接嵌入 Chrome 运行时,而此次 Prompt API 的开放,更是将其变成了无需外部 API 密钥、无需服务器端支持的 Web 原生能力。

这项技术革新也引发了行业的广泛讨论。Mozilla 开发者关系负责人 Jake Archibald 近期公开表示,担忧 Web 平台可能会因此被绑定到特定的模型提供商。但争议的背后,是无法逆转的行业趋势:浏览器底层的 AI 能力只会在市场竞争中持续升级,而这项能力,已经成为 JavaScript 开发当下即可落地的现实。

一行代码无法改变整个行业,但它确实推开了 Web 原生 AI 时代的大门。2026 年,网页将真正拥有独立的本地思考能力,而开启这个时代的钥匙,就藏在这几行简单的代码里。对于全球 Web 开发者而言,“Local AI First(本地 AI 优先)”,将成为下一代 Web 产品架构设计的核心准则,很快,这项能力就会像 localStorage 和 Geolocation 一样,成为网页默认的原生基础能力。

对于需要处理高复杂度 AI 任务、追求云端大模型稳定调用体验的开发者及企业用户,UseAIAPI 提供了全链路一站式解决方案,三大核心权益全面解决大模型调用痛点。

其一,全量主流大模型一站式无缝接入。平台已完成全球热门 AI 大模型的全覆盖,包括 Claude、Gemini、ChatGPT、DeepSeek 等最新版本模型,无需用户单独对接多个平台、处理多账号资质审核与风控问题,开箱即可实现平滑调用,大幅降低研发对接、日常运维的时间与人力成本。

其二,专属企业级定制化服务。针对企业级用户,平台可提供全流程定制化接入方案与 7×24 小时专属技术支持,彻底解决账号风控、调用限流、高并发稳定性、数据安全合规等核心需求,可根据业务场景定制专属算力调度方案,保障业务长期稳定运行,无需用户投入精力维护底层调用架构。

其三,行业极致成本优势。平台所有大模型调用费用,最低可享官方定价 5 折优惠,大幅削减高频调用、高强度内容生成、长上下文会话等场景下的算力消耗成本,即便是大流量生产级业务,也无需为高额的 API 调用费用担忧。