Skip to content

lix19937/xinfer

Repository files navigation

xinfer/MiGraphX 推理引擎

特性

  • c 17
  • cu
  • 单级SSA IR
  • 细粒度算子
  • 静态图模式
  • 支持dynamic shape
  • 支持 CNN
  • 支持 LLM
  • 支持 onnx输入
  • 支持 torch输入
  • 支持 openai/triton

模块设计

模块 说明 备注
parser IR-onnx外部输入
IR-xir内部表示
源码集成到 libxinfer.so

支持解析完导出为文件(json/MessagePack)
compile/optimizer 删除公共子表达式
死代码消除
算子融合
常量传播
常量折叠
代数化简

内存优化,如内存复用-图着色的方法实现无计算依赖的节点间的内存复用,显著减低内存消耗

指令调度-根据计算图分析指令之间的依赖关系,根据这些依赖关系优化各指令的执行顺序

算子等价
源码集成到 libxinfer.so
计算后端 cpu/gpu 基于硬件的各op的实现 源码集成到 libxinfer.so
引擎生成与分析工具 类似trtexec
对模型进行序列化
性能分析
查看模型的输入输出节点信息
查看版本信息
查看支持的ONNX算子
查看模型的计算图
read Loads and prints input graph.
compile Compiles and prints input graph.
run Loads and prints input graph.
perf Compiles and runs input graph then prints performance report.
verify Runs reference and CPU or GPU implementations and checks outputs for consistency.
roctx Provides marker information for each operation, allowing xinfer to be used with rocprof for performance analysis. This allows user to get GPU-level kernel timing information.
命令行工具

结构设计

数据结构 说明
shape 数据类型,各维度的大小,各维度的步长
shape(type_t t, std::vector<std::size_t> d, std::vector<std::size_t> s={});

type();返回数据类型枚举
const std::vector<std::size_t>& dims() const ;返回各维的大小,维度顺序为(N,C,H,W),类型为std::vectorstd::size_t
std::size_t elements() const返回所有元素的个数,类型为std::size_t
std::size_t bytes() const;返回所有元素的字节数,类型为std::size_t
argument 用来保存数据,类似torch中的Tensor,保存模型的输入和输出数据
构造一个argument对象:
argument(const shape &s);提供shape就可以,系统会自动申请一段内存,该内存的大小等于shape的bytes()方法返回值
template argument(const shape &s, T* d);提供shape之外,还需要提供该argument的数据指针,argument不会自动释放该数据

const shape& get_shape() const;返回数据的形状,类型为shape
char* data() const;返回argument的数据,类型为char *
literal 常量,比如可以使用literal表示卷积的权重。实际上literal是一种特殊的argument,literal中的值不能修改,而argument中的值可以修改。
构造一个literal对象:
template literal(const shape& s, const std::vector& x);
template literal(const shape& s, T* x);
template literal(const shape& s, const std::initializer_list& x);

const shape& get_shape() const;返回数据的形状,类型为shape
const char* data() const;返回 literal 的数据,类型为const char *
operator 指令将执行的操作。所有操作类都必须是CopyConstructable
instruction 指令,可以通过module中的add_instruction()成员函数添加指令。相当于ONNX模型中的一个节点或者torch模型中的一个layer。指令由操作(算子)和操作数组成。
module 网络模型的子图,神经网络模型中可能存在多个子图,每个子图又是由指令instruction组成。创建program的时候,会自动创建一个主计算图,可以通过program的 module* get_main_module()获取主计算图

成员函数:
instruction_ref add_parameter(std::string name, shape s);添加模型的输入
instruction_ref add_literal(literal l);添加常量,比如可以使用该成员函数添加卷积算子的权重
instruction_ref add_instruction(const operation& op, std::vector args);添加指令,除了输入,常量和结束指令之外的其他指令
instruction_ref add_return(std::vector args);添加结束指令,通常表示模型的结尾
注意:add_parameter(), add_literal(), add_return()添加的是模型中特殊的指令,这些指令不能使用add_instruction()添加
上述所有添加指令的成员函数返回添加的这条指令的引用
program 一个神经网络模型

成员函数:
void compile(const target& t, compile_options options = compile_options{});编译模型,其参数是一个target
std::vector<argument> eval(parameter_map params) const;执行推理并返回推理结果,返回类型为std::vector,注意这是一个同步的方法
get_inputs();返回模型的输入节点信息,每个输入节点包含输入名和输入shape
get_outputs(); 返回模型的输出节点信息,每个输出节点包含输出名和输出shape
std::unordered_map<std::string, shape> get_parameter_shapes();返回模型的输入或输出参数信息,常用来获取模型的输入参数信息
get_memory_usage();返回模型推理需要的显存大小,单位为字节
注意:如果需要在不同的线程中使用xinfer推理,不同线程不能共用同一个program对象,每个线程需要单独创建一个program对象执行推理
target 支持的硬件平台,CPU和GPU,在编译模型的时候,需要指定一个target
passes program 中的指令进行变换的接口,有以下接口:

dead_code_elimination
eliminate_common_subexpression
eliminate_concat
eliminate_contiguous
eliminate_identity
eliminate_pad
propagate_constant
rewrite_rnn
schedule
simplify_algebra
simplify_reshapes