Delegado de LiteRT para NPU

El ecosistema de Android abarca una amplia variedad de dispositivos con diversas unidades de procesamiento neuronal (NPU). Aprovechar estas NPU especializadas puede acelerar significativamente la inferencia de modelos LiteRT (TFLite) y reducir el consumo de energía en comparación con la ejecución de CPU o GPU, lo que mejora la experiencia del usuario en tus aplicaciones.

Los proveedores de chips que fabrican NPU proporcionan delegados de LiteRT para permitir que tu app use su hardware específico en el dispositivo de cada usuario.

Delegado directo de Qualcomm® AI Engine

El delegado directo de Qualcomm® AI Engine permite a los usuarios ejecutar modelos de LiteRT con el entorno de ejecución directo de AI Engine. El delegado está respaldado por la API de Neural Network de Qualcomm.

El delegado directo de Qualcomm® AI Engine está disponible en Maven Central. Para obtener más información, consulta la documentación de redes neuronales de Qualcomm.

Próximamente

Esperamos poder brindar asistencia a los delegados de los siguientes proveedores en los próximos meses:

  • Google Pixel
  • MediaTek
  • Samsung System LSI

No te pierdas las actualizaciones y las instrucciones adicionales para usar estos delegados y aprovechar la potencia de las NPU en tus modelos de TFLite.