limubai的个人空间 https://blog.eetop.cn/1716315 [收藏] [复制] [分享] [RSS]

空间首页 动态 记录 日志 相册 主题 分享 留言板 个人资料

日志

如何在米尔瑞芯微RK3576开发板上运行TinyMaix:超轻量级推理框架 ...

已有 441 次阅读| 2025-7-25 15:52 |系统分类:嵌入式| 瑞芯微, 嵌入式, RK3576, 开发板, 米尔

本文将介绍基于米尔电子MYD-LR3576开发平台部署超轻量级推理框架方案:TinyMaix

摘自优秀创作者-短笛君



TinyMaix 是面向单片机的超轻量级的神经网络推理库,即 TinyML 推理库,可以让你在任意低资源MCU上运行轻量级深度学习模型。

关键特性

核心代码少于 400行

(tm_layers.c+tm_model.c+arch_cpu.h), 

代码段(.text)少于3KB
低内存消耗
支持 INT8/FP32/FP16 模型,实验性地支持 FP8 模型,支持 keras h5 或 tflite 模型转换
支持多种芯片架构的专用指令优化: arm SIMD/NEON/MVEI,RV32P, RV64V
友好的用户接口,只需要 load/run 模型
支持全静态的内存配置(无需 malloc )

同样地也可以部署到MPU平台上

RK3576平台相较于RK3588其主要缩减了四个A76大核改成了A72
GPU也由原来的G610 MC4减为了G52MC3
NPU功能保持变不变,均为6Tops
视频编解码也略有缩减
其余各接口也砍掉了一部分
主打极致性价比方案

说回正题,要运行TinaMaix 只需要简单几个步骤即可运行。
首先确保系统安装了cmake gcc make工具:

克隆存储库[GitHub - sipeed/TinyMaix: TinyMaix is a tiny inference library for microcontrollers (TinyML).]

运行mnist手写数字识别任务

cd examples/mnist
mkdir build
cd build
cmake ..
make
./mnist


整个流程跑完仅仅需要0.14ms

可以看到soc平台强大的算力

mbnet
是适用于移动手机设备的简单图像分类模型,不过对单片机来说也稍微困难了些。
例程里的模型是 mobilenet v1 0.25,输入 128x128x3 的RGB图像,输出1000 分类的预测。
它需要至少 128KB SRAM 和 512KB Flash。

mkdir build
cd build
cmake ..
make
./mbnet


运行1000分类,耗费资源如下:
param “481,9 KB,0PS13,58 M0PS, buffer 96 0 KB


vww测试,主要是将图片信息转化为数组格式提供给网络输入。


手写数字识别的例程也是十分简单,只需要:


库文件已经是高度封装且兼容,所以很轻松地就可以在linux以及其它平台上移植,在RK3576这种高性能soc的加持下,可以发挥出更大的优势。


点赞

评论 (0 个评论)

facelist

您需要登录后才可以评论 登录 | 注册

  • 关注TA
  • 加好友
  • 联系TA
  • 10

    周排名
  • 0

    月排名
  • 0

    总排名
  • 0

    关注
  • 2

    粉丝
  • 0

    好友
  • 1

    获赞
  • 1

    评论
  • 247

    访问数
关闭

站长推荐 上一条 /1 下一条


小黑屋| 手机版| 关于我们| 联系我们| 隐私声明| EETOP 创芯网
( 京ICP备:10050787号 京公网安备:11010502037710 )

GMT+8, 2025-7-31 21:19 , Processed in 0.013178 second(s), 7 queries , Gzip On, Redis On.

eetop公众号 创芯大讲堂 创芯人才网
返回顶部