深度学习基础入门篇[四]:激活函数介绍:tanh、sigmoid、ReLU、PReLU、ELU、softplus、softmax、swish等
标签: 深度学习基础入门篇[四]:激活函数介绍:tanh、sigmoid、ReLU、PReLU、ELU、softplus、softmax、swish等 深度学习博客 51CTO博客
2023-04-12 18:24:00 164浏览
深度学习基础入门篇[四]:激活函数介绍:tanh、sigmoid、ReLU、PReLU、ELU、softplus、softmax、swish等,1.激活函数激活函数是人工神经网络的一个极其重要的特征;激活函数决定一个神经元是否应该被激活,激活代表神经元接收的信息与给定的信息有关;激活函数对输入信息进行非线性变换,然后将变换后的输出信息作为输入信息传给下一层神经元。激活函数的作用如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,最终的输出都是输入的线性组合。激活函数给神经元引入了非线性因素
好博客就要一起分享哦!分享海报
此处可发布评论
评论(0)展开评论
暂无评论,快来写一下吧
展开评论
您可能感兴趣的博客
