网页
资讯
视频
图片
知道
文库
贴吧
地图
采购
进入贴吧
全吧搜索
吧内搜索
搜贴
搜人
进吧
搜标签
日
一
二
三
四
五
六
签到排名:今日本吧第
个签到,
本吧因你更精彩,明天继续来努力!
本吧签到人数:0
一键签到
成为超级会员,使用一键签到
一键签到
本月漏签
0
次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行
补签
。
连续签到:
天 累计签到:
天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
08月24日
漏签
0
天
机器学习吧
关注:
22,976
贴子:
41,349
看贴
图片
吧主推荐
游戏
0
回复贴,共
1
页
<<返回机器学习吧
>0< 加载中...
bf16踩坑
只看楼主
收藏
回复
KyvYang
高级粉丝
3
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
尝试直接对模型进行model.bfloat16()后训练,速度确实加快且显存占用减少了。进行一百多个step的训练发现和fp32没什么不同,就以为没有精度损失。直到最近发现模型不收敛,这才想起做一个长点的实验,结果如图(上面的是bf16,下面的是fp32)
后续是保持模型本体fp32,使用autocast和gradscaler,这下精度没有损失了
登录百度账号
扫二维码下载贴吧客户端
下载贴吧APP
看高清直播、视频!
贴吧页面意见反馈
违规贴吧举报反馈通道
贴吧违规信息处理公示