简述
涉及到一些基本操作与基本世界观的补充搭建,以及一些数学的再理解
简单理解.detach()
-
它会返回一个新张量,且该张量脱离于原张量附属的计算图而存在,不参与梯度计算
-
该张量与原张量共享存储空间,意味着in-place modifications对二者是同步的
-
可以用来如数据呈现、记录等
例:
x = torch.arange(-8.0,8.0,0.1,requires_grad=True)
y = torch.relu(x)
d2l.plot(x.detach(),y.detach(),'x','relu(x)',figsize=(5,2.5))
区分torch.relu(x)
与torch.nn.functional.relu(x)
- 其实没什么区别,更像是通过更改名字来区分与统一应用场景,二者最终指向的c代码也是同一部分
- 其实还有
torch.nn.ReLU
等,其更多是作为层对象存在的 - 可以理解为:torch不但可以构建网络,其本身也提供了大量的基础工具,而恰好两个功能中有工具一样
Xavier初始化
会将来单独写一篇
说些什么吧!