全新推出:LiteRT:Google 专为设备端 AI 打造的高性能运行时,以前称为 TensorFlow Lite。
适用于 NPU 的 LiteRT 代理
Android 生态系统涵盖各种搭载不同神经处理单元 (NPU) 的设备。与 CPU 或 GPU 执行相比,利用这些专用 NPU 可以显著加速 LiteRT (TFLite) 模型推理并降低能耗,从而提升应用中的用户体验。
制造 NPU 的芯片供应商会提供 LiteRT 代理,以便您的应用在每个用户的设备上使用其特定硬件。
Qualcomm® AI Engine Direct Delegate
借助 Qualcomm® AI Engine Direct 委托,用户可以使用 AI Engine Direct 运行时运行 LiteRT 模型。该代理由 Qualcomm 的 Neural Network API 提供支持。
Qualcomm® AI Engine Direct Delegate 可从 Maven Central 获取。如需了解详情,请参阅 Qualcomm 神经网络文档。
即将推出
我们期待在未来几个月内为以下供应商的代表提供支持:
- Google Pixel
- MediaTek
- Samsung System LSI
敬请关注最新动态,以及有关如何使用这些代理在 TFLite 模型中充分利用 NPU 的进一步说明。
如未另行说明,那么本页面中的内容已根据知识共享署名 4.0 许可获得了许可,并且代码示例已根据 Apache 2.0 许可获得了许可。有关详情,请参阅 Google 开发者网站政策。Java 是 Oracle 和/或其关联公司的注册商标。
最后更新时间 (UTC):2025-01-08。
[[["易于理解","easyToUnderstand","thumb-up"],["解决了我的问题","solvedMyProblem","thumb-up"],["其他","otherUp","thumb-up"]],[["没有我需要的信息","missingTheInformationINeed","thumb-down"],["太复杂/步骤太多","tooComplicatedTooManySteps","thumb-down"],["内容需要更新","outOfDate","thumb-down"],["翻译问题","translationIssue","thumb-down"],["示例/代码问题","samplesCodeIssue","thumb-down"],["其他","otherDown","thumb-down"]],["最后更新时间 (UTC):2025-01-08。"],[],[]]