在 Linux 系统中,Tar 打包是一项非常重要的操作,它为我们提供了一种方便、高效的方式来整理和备份文件及目录。
Tar 是 tape archive(磁带归档)的缩写,最初是用于将文件存储到磁带上。如今,它主要用于将多个文件和目录合并成一个单一的归档文件,以便于存储、传输或备份
在 Linux 系统中,Tar 打包是一项非常重要的操作,它为我们提供了一种方便、高效的方式来整理和备份文件及目录。
Tar 是 tape archive(磁带归档)的缩写,最初是用于将文件存储到磁带上。如今,它主要用于将多个文件和目录合并成一个单一的归档文件,以便于存储、传输或备份
指针常量#
1 | int *const ptr = nullptr; |
const 修饰的是指针 ptr 的值,ptr 本身不能被修改,所以指针常量必须初始化,同时我们无法对 ptr 的值进行修改。
1 | int a = 10; |
指针常量的应用场景#
例如:需要编写一个函数,实现使用传参指针的形式交换两个整形的值。
最近突然有很多的感触,决定还是在这个不会有人看的地方记录一下
FLOPs与模型时间复杂度、GPU利用率有关,Params与模型空间复杂度、显存占用有关
这篇文章的诞生大概要从这里开始:
自学 web 开发,这应该是我在脱离应试教育体系后,第一次真正的想要学点什么东西,结果并不美好:我在半途而废和重新开始中循环,一次次怀疑自我过后,所剩无几的热情彻底熄灭,我宣布正式放弃。
这件事成为了一个问题,这是我第一次感受到个人能力方面的彻底失败,我明白失败的点不在于我学不会编程,而是我根本不懂怎么学习,我缺乏一种以前从来没研究过的自学能力。
我一直都喜欢阅读各类泛心理学书籍,以及各种和脑科学相关的知识,我觉得首先要研究明白自己,才能更好的利用外在工具。而这次失败事件过后,我开始了更加广泛的摄入,它成为了一个锚点,引导我在吸收各种材料的过程中,更关注那些怎么能帮我把这个问题彻底解决的领域。
终于,我脑海里慢慢有了答案的雏形,虽然依然属于半混沌状态,我想,把它写下来或许能更加清晰一些,也可以启发有类似问题的人。
看完很有感触,感觉和自己的心态特别像,转载一下
不知道从什么时候开始,我那些所谓的爱好已经基本全部抛弃掉了,我开始有一些怀念大学时期的大把闲暇时光,也开始后悔大学时候对这些时光的浪费。工作以来,博客基本上处于一种荒废的状态,不再有热情去研究各种平台的搭建和使用,也不再有分享并撰写成文章的想法。下班和周末就躺在床上刷手机、看电视,这些充斥着我的碎片时间和大块整片时间。
用法类似于numpy的resize,主要是用来改变tensor的大小
最近感觉PyTorch这个框架使用起来还是非常吃力,看别人的代码也常常有无法理解的地方,决定还是先自己研究一下PyTorch官方文档的API。在这边开个学习记录的坑…
函数常见入参:
input
:Tensor格式requires_grad
:布尔值,aotugrad是否需要记录在该Tensor上的操作size
:一般是衡量尺寸的数据,可以是多个数字或collection格式(如list或tuple等)device
:Tensor所处的设备(cuda或CPU),可以用torch.device或直接使用字符串、数值(torch.device的入参)代替。torch.randn((2,3), device=torch.device('cuda:1'))
torch.randn((2,3), device='cuda:1')
torch.randn((2,3), device=1)
dtype
:取值范围见torch.dtype
函数名前加_
是原地操作
针对官方入门教程Deep Learning with PyTorch: A 60 Minute Blitz简单做个学习记录,本文大量参考该篇博客 Respect。
torch中的Tensor是一种数据结构,其实在使用上与Python的list、numpy的array、ndarray等数据结构比较类似,可以当成一个多维数组来用。
在数学上对张量这一专业名词有特定的定义,但是反正大概理解成一个多维数组就够用了。
由于最近在看python代码的时候发现很多地方难以理解,特别是用到Numpy来处理数据的部分。在这边整理一个官方教程Numpy User Guide的简单学习笔记。本文大量参考该博客 Respect
Update your browser to view this website correctly.&npsb;Update my browser now