转载 想法
看完很有感触,感觉和自己的心态特别像,转载一下
不知道从什么时候开始,我那些所谓的爱好已经基本全部抛弃掉了,我开始有一些怀念大学时期的大把闲暇时光,也开始后悔大学时候对这些时光的浪费。工作以来,博客基本上处于一种荒废的状态,不再有热情去研究各种平台的搭建和使用,也不再有分享并撰写成文章的想法。下班和周末就躺在床上刷手机、看电视,这些充斥着我的碎片时间和大块整片时间。
看完很有感触,感觉和自己的心态特别像,转载一下
不知道从什么时候开始,我那些所谓的爱好已经基本全部抛弃掉了,我开始有一些怀念大学时期的大把闲暇时光,也开始后悔大学时候对这些时光的浪费。工作以来,博客基本上处于一种荒废的状态,不再有热情去研究各种平台的搭建和使用,也不再有分享并撰写成文章的想法。下班和周末就躺在床上刷手机、看电视,这些充斥着我的碎片时间和大块整片时间。
用法类似于numpy的resize,主要是用来改变tensor的大小
最近感觉PyTorch这个框架使用起来还是非常吃力,看别人的代码也常常有无法理解的地方,决定还是先自己研究一下PyTorch官方文档的API。在这边开个学习记录的坑…
函数常见入参:
input
:Tensor格式requires_grad
:布尔值,aotugrad是否需要记录在该Tensor上的操作size
:一般是衡量尺寸的数据,可以是多个数字或collection格式(如list或tuple等)device
:Tensor所处的设备(cuda或CPU),可以用torch.device或直接使用字符串、数值(torch.device的入参)代替。torch.randn((2,3), device=torch.device('cuda:1'))
torch.randn((2,3), device='cuda:1')
torch.randn((2,3), device=1)
dtype
:取值范围见torch.dtype
函数名前加_
是原地操作
针对官方入门教程Deep Learning with PyTorch: A 60 Minute Blitz简单做个学习记录,本文大量参考该篇博客 Respect。
torch中的Tensor是一种数据结构,其实在使用上与Python的list、numpy的array、ndarray等数据结构比较类似,可以当成一个多维数组来用。
在数学上对张量这一专业名词有特定的定义,但是反正大概理解成一个多维数组就够用了。
由于最近在看python代码的时候发现很多地方难以理解,特别是用到Numpy来处理数据的部分。在这边整理一个官方教程Numpy User Guide的简单学习笔记。本文大量参考该博客 Respect
tmux的快捷键也是一旦要用到的时候就怎么也想不起来的那种…
tmux new -s work
创建会话work<C-b>d
分离会话和终端 detach (会话会在后台运行)tmux ls
显示所有会话tmux attach -t work
重新连接到会话workUpdate your browser to view this website correctly.&npsb;Update my browser now