DSO.ai
础滨驱动的设计应用
了解更多 →
视频主题
在超低功耗处理器上使用TensorFlow Lite Microcontrollers软件帮助实现高效的NN推理
视频内容:
当在内存和功耗预算有限的系统上进行神经网络推理时,深度嵌入式AIoT应用需要满足特定的实时性能需求。同时,开发人员希望能够通过便利的方式将神经网络图的设计工作迁移到嵌入式环境中。在本次演讲中,我们将描述嵌入式处理器上的特定硬件扩展如何能够极大地提高神经网络推理运算的性能,从而在降低功耗的同时实现性能目标。然后,我们将展示如何将经过优化处理的神经网络推理库与大家所熟悉的ML前端相集成,以促进开发工作流。为了说明这些概念,我们将展示运行在DSP增强型DesignWare? ARC? EM处理器上的草榴社区 MLI Machine Learning Inference库。
演讲嘉宾:
Jamie Campbell
新思科技