您现在的位置是:首页 > 电脑 > 

嵌入式Linux平台部署AI神经网络模型Inference的方案

2025-07-21 21:33:48
嵌入式Linux平台部署AI神经网络模型Inference的方案 OX 简述 OX是一种AI神经网络模型的通用中间文件保存方法(可以理解成AI世界的XML),各种AI框架,Inference引擎,甚至OpenCV里面的dnn onnx相关的模块都可以解析OX文件并生成特定平台和运行框架所支持的神经网络模型。OX本身不是AI神经网络运行框架,只是AI神经网络模型通用中间描述文件

嵌入式Linux平台部署AI神经网络模型Inference的方案

OX

  • 简述
    OX是一种AI神经网络模型的通用中间文件保存方法(可以理解成AI世界的XML),各种AI框架,Inference引擎,甚至OpenCV里面的dnn onnx相关的模块都可以解析OX文件并生成特定平台和运行框架所支持的神经网络模型。OX本身不是AI神经网络运行框架,只是AI神经网络模型通用中间描述文件格式

  • GitHub链接

  • 编程语言
    C++ / Python

  • 热度
    ★★★★★

TensorRT

  • 简述
    TensorRT是VIDIA家的开源AI神经网络Inference引擎,支持解析和转换OX格式的神经网络模型部署到支持CUDA的GPU上运行。目前TensorRT仅支持在VIDIA家的产品部署AI神经网络模型,支持的平台有VIDIA各种支持CUDA 9.0以上的显卡,嵌入式SOC平台(Jetson TX1/TX2/ano/Xavier 等)

  • GitHub链接

  • 编程语言
    C++

  • 热度
    ★★★☆☆☆

#感谢您对电脑配置推荐网 - 最新i3 i5 i7组装电脑配置单推荐报价格的认可,转载请说明来源于"电脑配置推荐网 - 最新i3 i5 i7组装电脑配置单推荐报价格

本文地址:http://www.dnpztj.cn/diannao/880977.html

相关标签:无
上传时间: 2024-04-17 07:16:55
留言与评论(共有 7 条评论)
本站网友 哈尔滨医科大学地址
18分钟前 发表
只是AI神经网络模型通用中间描述文件格式 GitHub链接 编程语言 C++ / Python 热度 ★★★★★☆ TensorRT 简述 TensorRT是VIDIA家的开源AI神经网络Inference引擎
本站网友 张雅琳
3分钟前 发表
目前TensorRT仅支持在VIDIA家的产品部署AI神经网络模型
本站网友 金融机构反洗钱义务
9分钟前 发表
支持解析和转换OX格式的神经网络模型部署到支持CUDA的GPU上运行
本站网友 文件夹加密软件
26分钟前 发表
支持解析和转换OX格式的神经网络模型部署到支持CUDA的GPU上运行
本站网友 中国福布斯排行榜
24分钟前 发表
嵌入式SOC平台(Jetson TX1/TX2/ano/Xavier 等) GitHub链接 编程语言 C++ 热度 ★★★☆☆☆
本站网友 锦艺国际华都二期
0秒前 发表
目前TensorRT仅支持在VIDIA家的产品部署AI神经网络模型