ONNX(Open Neural Network Exchange)是一个开放格式,用于表示深度学习模型,允许模型被不同的深度学习框架所使用。ONNX定义了一系列的算子(Operators),每个算子对应一个特定的操作,例如卷积、池化、归一化等。以下是一些常见的ONNX算子列表,这些算子在模型中作为节点(Node)存在:
Abs - 绝对值函数。
Acos - 反余弦函数。
Acosh - 反双曲余弦函数。
Add - 元素级加法。
And - 元素级逻辑与。
ArgMax - 沿指定轴的元素最大值索引。
ArgMin - 沿指定轴的元素最小值索引。
Asin - 反正弦函数。
Asinh - 反双曲正弦函数。
Atan - 反正切函数。
Atanh - 反双曲正切函数。
AveragePool - 平均池化。
BatchNormalization - 批量归一化。
Cast - 类型转换。
Ceil - 向上取整。
Clip - 按范围裁剪张量值。
Concat - 沿指定轴连接张量序列。
Constant - 常数节点。
Conv - 卷积操作。
ConvInteger - 整数卷积。
ConvTranspose - 转置卷积。
Cos - 余弦函数。
Cosh - 双曲余弦函数。
CumSum - 累积和。
DepthToSpace - 深度到空间的转换。
Div - 元素级除法。
Dropout - 随机丢弃节点。
Einsum - 根据爱因斯坦求和约定计算张量。
Elu - 指数线性单元激活函数。
Equal - 元素级相等比较。
Erf - 误差函数。
Exp - 指数函数。
Expand - 张量扩展。
EyeLike - 生成单位矩阵。
Flatten - 展平张量。
Floor - 向下取整。
GRU - 门控循环单元。
Gather - 根据索引收集元素。
GatherElements - 根据索引收集元素。
GatherND - 多维索引收集。
Gemm - 矩阵乘法。
GlobalAveragePool - 全局平均池化。
GlobalLpPool - 全局Lp池化。
GlobalMaxPool - 全局最大池化。
Greater - 元素级大于比较。
HardSigmoid - 硬Sigmoid激活函数。
Hardmax - 硬Max选择函数。
Identity - 恒等操作。
If - 条件分支。
InstanceNormalization - 实例归一化。
IsInf - 判断是否为无穷大。
IsNaN - 判断是否为NaN。
LRN - 本地响应归一化。
LSTM - 长短期记忆网络。
LeakyRelu - 带泄漏的ReLU激活函数。
Less - 元素级小于比较。
Log - 对数函数。
Loop - 循环控制流。
LpNormalization - Lp范数归一化。
LpPool - Lp池化。
MatMul - 矩阵乘法。
MatMulInteger - 整数矩阵乘法。
Max - 元素级最大值。
MaxPool - 最大池化。
Mean - 均值函数。
MeanVarianceNormalization - 均值方差归一化。
Min - 元素级最小值。
Mul - 元素级乘法。
Neg - 取反操作。
Not - 逻辑非。
Or - 元素级逻辑或。
PRelu - 参数化ReLU激活函数。
Reciprocal - 求倒数。
ReduceL1 - L1范数归约。
ReduceL2 - L2范数归约。
ReduceLogSum - 对数求和归约。
ReduceLogSumExp - 对数求和指数归约。
ReduceMax - 最大值归约。
ReduceMean - 均值归约。
ReduceMin - 最小值归约。
ReduceProd - 乘积归约。
ReduceSum - 求和归约。
ReduceSumSquare - 平方和归约。
Relu - 线性整流函数。
Reshape - 改变张量形状。
Scale - 缩放操作。
Scan - 循环扫描。
Sigmoid - Sigmoid激活函数。
Sin - 正弦函数。
Sinh - 双曲正弦函数。
Size - 获取张量维度大小。
Slice - 切片操作。
Softmax - Softmax激活函数。
SpaceToDepth - 空间到深度的转换。
Split - 将张量分割成多个部分。
Sqrt - 平方根函数。
Sub - 元素级减法。
Sum - 元素级求和。
Tanh - 双曲正切函数。
Tile - 复制张量。
请注意,ONNX算子集会随着ONNX版本的更新而增加新的算子或修改现有算子。上述列表可能不包含所有算子,且可能随时间而变化。要获取最新和完整的算子列表,可以访问ONNX官方文档或GitHub仓库。