- 博客(18)
- 收藏
- 关注
原创 一张风景图片
为帮助您在CSDN创作的文章获得更多曝光和关注,我们为您提供了专属福利:已注册且未在CSDN平台发布过文章的用户,9月1日—9月30日期间发布首篇文章可享大额首篇流量券扶持,且发布首篇文章后30日内,享连续每日流量券扶持;已注册且未在CSDN平台发布过文章的用户,在8月1日—8月30日期间发布过首篇,可自9月1日起,享连续30天每日流量券扶持;更多福利介绍详见https://mp.csdn.net/mp_blog/manage/traffic如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇
2023-09-06 17:16:30 107 1
原创 李宏毅机器学习 batch normalization
feature scalingw1和w2发生同等的变化,因为x2很大,x1很小,所以w2对结果影响较大,loss在w2方向上斜率较大,w1对结果影响较小,loss在w1方向上斜率较小如果进行feature scaling,使得x1和x2有相同的变化范围loss就是正圆形的好处:feature scaling 之前,learning rate在不同方向上不同,要在w1方向上有较大的learning rate, 在w2方向上有较小的learning rate;而feature scaling
2021-04-14 21:21:32 191
原创 Colab 进度条无法单行显示问题
很简单将from tqdm import tqdm改为from tqdm import tqdm_notebook as tqdm效果:
2021-04-03 13:37:26 594 1
原创 pytorch
torch.from_numpy()Creates a Tensor from a numpy.ndarray参考链接x_train = np.array([[3.3], [4.4], [5.5], [6.71], [6.93], [4.168], [9.779], [6.182], [7.59], [2.167], [7.042], [10.791], [5.313], [7.997], [3.1]], dtype=.
2021-03-25 12:27:44 50
原创 进程、线程、并发、并行
1、 并发vs并行:并发(Concurrent),在操作系统中,是指一个时间段中有几个程序都处于已启动运行到运行完毕之间,且这几个程序都是在同一个处理机上运行。并行(Parallel),当系统有一个以上CPU时,当一个CPU执行一个进程时,另一个CPU可以执行另一个进程,两个进程互不抢占CPU资源,可以同时进行实际上,对于单CPU的计算机来说,在CPU中,同一时间是只能干一件事儿的。为了看起来像是“同时干多件事”,Windows操作系统是把CPU的时间划分成长短基本相同的时间区间,即”时间片”,
2021-03-18 00:38:51 169
原创 神经网络与深度学习笔记1
一、Neural Network In General给定训练数据选择Decision function并由此定义loss function目标是最小化损失函数通过SGD(随机梯度下降)求解最优化问题,得出参数----梯度由反向传播backpropogation求解二、Representation LearningLearning Multiple ComponentsOrganization of the book三、Neurons3.1神经网络基础模型ste.
2021-03-17 21:46:30 250
原创 李宏毅机器学习back propogation反向传播
回顾梯度下降: 有一堆参数 θ=w1,w2,...,b1,b2,...\theta= {w_1,w_2,...,b_1,b_2,... }θ=w1,w2,...,b1,b2,...首先由一个初始化值θ0\theta^0θ0计算损失函数的梯度▽L(θ0)\triangledown L(\theta^0)▽L(θ0)迭代θ\thetaθ参数过多,怎么办?BP算法是一种能快速算出梯度的方法回顾链式求导法则BPy^n\hat{y}^ny^n是理想输出;yny^nyn是实..
2021-03-17 21:05:35 111
原创 尚硅谷Hadoop 02框架搭建
概念Hadoop是什么分布式系统:多台服务器共同完成一项任务Hadoop是Apache开发的分布式体统基础架构,主要解决海量数据的存储和分析计算广义来说,Hadoop指Hadoop生态圈,包括Hive、Hbase等Hadoop发展历史Hadoop发行版本Hadoop优势Hadoop组成大数据技术生态体系推荐系统案例环境准备模板虚拟机准备克隆安装JDK、HadoopHadoop生产集群搭建本地模式完全分布式集群(核心)常见错误解决方案...
2021-03-17 10:58:31 729
原创 尚硅谷Hadoop 01概述
知识框架详细思维导图(1111资料来源于尚硅谷)版本 Hadoop3.1.3大数据主要解决海量数据的采集,存储,分析大数据特点(4V)Volume(大量) 大企业数据量接近EB量级(1EB=1024PB 1PB=1024TB)Velocity(高速) 数据产生快Variety(多样)分为结构化数据和非结构化数据Value(低价值密度) 大量数据中有价值的少(数据清洗)应用场景电商、短视频app的推荐系统零售行业分析消费习惯 eg. 纸尿裤+啤酒物流仓储 eg. 京东物流
2021-03-17 10:26:23 105
原创 基础DOS命令
退出cmd exit清除屏幕cls当前目录下的文件dir切换目录cd+路径切换磁盘 直接D:回到上级目录cd ..回到根目录cd \
2021-03-14 00:24:04 41
原创 李宏毅机器学习CNN
##Why CNN?当我们直接用一般的fully connected的feedforward network来做图像处理的时候,往往会需要太多的参数,100100的彩色图片input是3100*100维向量,如果第一层hidden layer有1000个神经元,则一共需要需要30000000个参数怎么减少参数呢?想要发现图片的样式不需要看整张图片,只需要看一部分图片对于出现在不同位置的同样的pattern,处理这些的神经元功能相似,可以共用同一组参数利用subsampling这个概念把
2021-03-13 12:03:53 171
原创 李宏毅机器学习08brief introduction of deep learning
deep learning的三步:define a set of function(neural network)goodness of functionpick the best functionNeural Network多个logistic regression连接起来,每一个logistic regression是一个neural,每个neural都有自己的weight和bias,集合起来构成整个network的parameter连接方式:最常见的fully connect Fe
2021-03-13 01:28:40 75
原创 李宏毅机器学习03 bias&variance
误差来源于何处?bias 没有瞄准靶心variance 瞄准靶心后仍有偏移Variance如果将上一节的试验(10只宝可梦做回归)重复100次,对不同的模型,结果不同从上图可以看出:一次模型的variance比较小,更复杂的模型variance更大为什么?简单的model受不同data的影响较小(我的理解:两点确定一条直线,曲线需要更多的点?极端例子:f(x)=cf(x)=cf(x)=c ,不论什么data,output都是cBias黑线:真实function蓝线:5000
2021-03-12 22:42:25 83
原创 李宏毅机器学习02Regression
李宏毅机器学习02 Regression:case studycase:预测宝可梦CP值目标找一个functioninput:一只宝可梦output:进化后的CP值参数XXX: 表示一只宝可梦,用下标表示该宝可梦的某种属性XcpX_{cp}Xcp:表示该宝可梦进化前的cp值XsX_sXs: 表示该宝可梦是属于哪一种物种,比如妙瓜种子、皮卡丘…XhpX_{hp}Xhp :表示该宝可梦的生命值XwX_wXw : 代表该宝可梦的重重量XhX_hXh : 代表该宝可梦的高度f(
2021-03-12 21:11:18 104
原创 李宏毅机器学习01introduction
李宏毅深度学习01introduction机器学习就是自动找一个函数的过程,给定输入得到想要的输出regressionclassificationgeneration(产生文字、画图…)supervised learning已经知道想要的输出是什么样子给机器一些训练集(labeled data)<x,y>机器根据loss function判断找的预测函数对不对,机器会自动找出loss最低的函数reinforcement learning不需要告诉机器怎么做,机器
2021-03-12 19:57:35 98
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人