笔记
司徒君
一本正经的胡说八道
终极目标,到一个有WiFi的深山隐居
展开
-
摆脱肥宅,从我做起—day06
python自学小记录04一、python易忘点1、(string)*重复string0次或多次;(string)+重复1次或多次;(string)-重复0次或1次。{x,y} 重复x次或y次2、特殊序列是\ d,\ s和\ w,分别匹配数字,空格和单词字符。在ASCII模式下,它们等效于[0-9],[\ t \ n \ r \ f \ v]和[a-zA-Z0-9_]。\D匹配一个非数字字符。等价于 [^0-9]。4、\Z匹配字符串结束,如果是存在换行,只匹配到换行前的结束字符串;\原创 2020-07-23 11:24:17 · 256 阅读 · 2 评论 -
摆脱肥宅,从我做起—day05
python自学小记录03一、python易忘点1、magic method给python原有函数前后加双下划线,重定义该函数2、”note “.join(sqe)以note为间隔,隔开sqe的东西3、format():把传统的%替换为{}来实现格式化输出4、没懂python单双下划线导致的访问权限问题!!!?无public单halfprivate双private(实例不能访问)5、Python中3种方式定义类方法:常规方式, @classmethod修饰方式,@staticmeth原创 2020-06-21 23:02:50 · 225 阅读 · 0 评论 -
摆脱肥宅,从我做起—day04
(past time补充)吴恩达dl再学习原创 2020-06-17 16:29:27 · 190 阅读 · 0 评论 -
摆脱肥宅,从我做起—day03
python自学小记录02一、pytorch易忘点1、tensor的创建function可以被查看,requires_grad=true跟踪tensor所有操作2、调用 .backward()来自动计算所有梯度,该张量的梯度将累积到 .grad 属性中。若求导tensor是一元(标量),则 .backward()不需参数;否则, .backward()里要指定一个和待求导的tensor一样规模的tensor做参数。net.parameters()可获得网络的各层权重。3、疑惑:net.zero原创 2020-06-17 16:15:51 · 251 阅读 · 0 评论 -
摆脱肥宅,从我做起—day02
一、python错题集1、原创 2020-06-04 14:41:01 · 428 阅读 · 0 评论 -
摆脱肥宅,从我做起—day01
视频学习为什么有些小样本数据集可以用很小的minibatch,好像有16,8的?感觉就是平均的规则太“死板”,所以弄个加权。而普通加权又是另一种“死板”,所以用前面的所有“平均”代表当前数。之所以“指数”,是因为,按公式一层层套进去之后,其实就是一个和贝塔有关的指数。同理,普通梯度下降,梯度更新也太“死板”,所以借用指数加权平均思想,来更新梯度。(视频有个球滚下碗的比喻,贝塔比喻摩擦,...原创 2020-03-15 19:58:42 · 189 阅读 · 0 评论 -
摆脱肥宅,从我做起—day00
肥宅的自我觉醒原定二月初回学校,由于疫情原因,结果给自己放了整整两个月肥宅假。临近三月中了,被毕业支配的恐惧,我要立下flag,从明天起,每日更新一篇杂记,主要记录当天学习情况。(后悔没有把电脑带回家)...原创 2020-03-14 17:11:15 · 180 阅读 · 0 评论