我正在Jupyter-Lab笔记本上训练PyTorch深度学习模型,使用Tesla K80 GPU上的CUDA来训练。在进行训练迭代时,12GB的GPU内存被使用。我通过保存模型检查点完成训练,但想继续使用笔记本进行进一步分析(分析中间结果等)。
然而,在完成培训后,这12GB继续被占用(从
nvtop
可以看出)。我想腾出这些内存,以便我可以将其用于其他笔记本。
到目前为止,我的解决方案是重启这台笔记本的内核,但这并不能解决我的问题,因为到目前为止,我无法继续使用同一台笔记本和它各自的输出计算。