您好,欢迎访问代理记账网站
  • 价格透明
  • 信息保密
  • 进度掌控
  • 售后无忧

pyTorch节省显存

基本上,PyTorch所做的是,每当我通过网络传递数据并将计算存储在GPU内存中时,它都会创建一个计算图,以防我想在反向传播期间计算梯度。但由于我只想执行正向传播,所以只需要为模型指定torch.no_grad()。

因此,我的代码中的for循环可以重写为:

在这里插入图片描述

为我的模型指定no_grad()会告诉PyTorch我不想存储任何以前的计算,从而释放我的GPU空间。


分享:

低价透明

统一报价,无隐形消费

金牌服务

一对一专属顾问7*24小时金牌服务

信息保密

个人信息安全有保障

售后无忧

服务出问题客服经理全程跟进