深度学习基础入门篇[四]:激活函数介绍:tanh、sigmoid、ReLU、PReLU、ELU、softplus、softmax、swish等

奋斗吧
奋斗吧
擅长邻域:未填写

标签: 深度学习基础入门篇[四]:激活函数介绍:tanh、sigmoid、ReLU、PReLU、ELU、softplus、softmax、swish等 深度学习博客 51CTO博客

2023-04-12 18:24:00 164浏览

深度学习基础入门篇[四]:激活函数介绍:tanh、sigmoid、ReLU、PReLU、ELU、softplus、softmax、swish等,1.激活函数激活函数是人工神经网络的一个极其重要的特征;激活函数决定一个神经元是否应该被激活,激活代表神经元接收的信息与给定的信息有关;激活函数对输入信息进行非线性变换,然后将变换后的输出信息作为输入信息传给下一层神经元。激活函数的作用如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,最终的输出都是输入的线性组合。激活函数给神经元引入了非线性因素

好博客就要一起分享哦!分享海报

此处可发布评论

评论(0展开评论

暂无评论,快来写一下吧

展开评论

您可能感兴趣的博客

客服QQ 1913284695