网页资讯视频图片知道文库贴吧地图采购
进入贴吧全吧搜索

 
 
 
日一二三四五六
       
       
       
       
       
       

签到排名:今日本吧第个签到,

本吧因你更精彩,明天继续来努力!

本吧签到人数:0

一键签到
成为超级会员,使用一键签到
一键签到
本月漏签0次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行补签。
连续签到:天  累计签到:天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
08月27日漏签0天
人工智能吧 关注:116,855贴子:509,625
  • 看贴

  • 图片

  • 吧主推荐

  • 视频

  • 游戏

  • 1 2 下一页 尾页
  • 81回复贴,共2页
  • ,跳到 页  
<<返回人工智能吧
>0< 加载中...

有谁研究过rectified linear units (ReLUs)?

  • 只看楼主
  • 收藏

  • 回复
  • LJ人工智能
  • 2B
    13
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
RT
为啥DL用它可以不用pretraining?


  • 卡西地
  • 铁皮人
    8
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
咱是民科,看不懂论文,精神上支持一下。


2025-08-27 10:25:35
广告
不感兴趣
开通SVIP免广告
  • click4i
  • T800
    10
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
早期使用sigmoid或tanh激活函数的DL在做unsupervised learning时因为 gradient vanishing problem 的问题会无法收敛。ReLU则这没有这个问题。


  • 我知道你要问
  • 纳斯德
    7
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
DL是什么?


  • 利_刃
  • T800
    10
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
预训练的用处:规则化,防止过拟合;压缩数据,去除冗余;强化特征,减小误差;加快收敛速度。
标准的sigmoid输出不具备稀疏性,需要用一些惩罚因子来训练出一大堆接近0的冗余数据来,从而产生稀疏数据,例如L1、L1/L2或Student-t作惩罚因子。因此需要进行无监督的预训练。
而ReLU是线性修正,公式为:g(x) = max(0, x),是purelin的折线版。它的作用是如果计算出的值小于0,就让它等于0,否则保持原来的值不变。这是一种简单粗暴地强制某些数据为0的方法,然而经实践证明,训练后的网络完全具备适度的稀疏性。而且训练后的可视化效果和传统方式预训练出的效果很相似,这也说明了ReLU具备引导适度稀疏的能力。

从函数图形上看,ReLU比sigmoid更接近生物学的激活模型。
实际测量数据:纵坐标轴是神经元的放电速率(Firing Rate);横轴是毫秒(ms)

基于生物学的数学规则化激活模型(LIF)


  • LJ人工智能
  • 2B
    13
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
感谢@click4i的答复,感谢@利_刃的有图有文字的解答


  • think__123
  • 贾维斯
    9
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
把sigmoid的BP网络改成ReLU需要改哪些地方啊,有开源的简单的代码吗?谢谢


  • k4487759
  • 铁皮人
    8
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
能否科普一下rectified linear units,是否和带稀疏化的SVM及LR里正则化(Regularization)是一个道理,起到max(0,f(.))的作用?


2025-08-27 10:19:35
广告
不感兴趣
开通SVIP免广告
  • eaogel
  • 扫地机
    2
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
赞个禁词“”不明觉厉“”


  • 当生活失去希望
  • 铁皮人
    8
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
这需要去美国学吗?谷歌学术都进不了
当然!需要去美国


  • lanyu0828
  • 贾维斯
    9
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
呵呵,我努力在看,但看不懂楼主说的是什么。


  • Pallashadow
  • 9S
    12
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
是从这来的吗?
http://eprints.pascal-network.org/archive/00008596/01/glorot11a.pdf
这个Xavier Glorot是什么人?


  • click4i
  • T800
    10
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
最近看到一种说法,说是ReLU会形成一种locally competitive network,从而自然的达成sparse coding 的效果。这也可以解释为什么用ReLU就无需pre-training.


  • think__123
  • 贾维斯
    9
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
在训练的过程中,改变激活函数(或者激活函数的参数),也挺有意思啊。


2025-08-27 10:13:35
广告
不感兴趣
开通SVIP免广告
  • hjahz12345
  • 扫地机
    2
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
我想问一下用RELU如何做bp啊?求大神能否给出公式。


登录百度账号

扫二维码下载贴吧客户端

下载贴吧APP
看高清直播、视频!
  • 贴吧页面意见反馈
  • 违规贴吧举报反馈通道
  • 贴吧违规信息处理公示
  • 1 2 下一页 尾页
  • 81回复贴,共2页
  • ,跳到 页  
<<返回人工智能吧
分享到:
©2025 Baidu贴吧协议|隐私政策|吧主制度|意见反馈|网络谣言警示