SMU: smooth activation function for deep networks using smoothing maximum technique
SMU:基于光滑最大值技术的光滑激活函数.
SMU:基于光滑最大值技术的光滑激活函数.
Smooth function and smoothing technique.
MicroNet:极低FLOPs的图像识别网络.
GhostNet:使用廉价操作构造更多特征.
SAU:使用Dirac函数构造激活函数的光滑近似.
使用逆平方根线性单元(ISRLU)改进深度学习.