Gradient Descent and NSCA

      今天算是缓过神来老,虽考试久久不如人意,但终于守得云开,既然已经过去了,就过去好了,人么,总该向前看。

      ML课程看了第一、二节,不得不承认Andrew NG 讲的非常地道,本来是学过ml半学期左右时间,但是听他讲的东西能更细节。我现在的ml面临的两个问题:

      1、看到一群蝌蚪文字,只怪数学功底薄弱。毫不夸张的说,我的数学直接菜到不能再菜,但是总归数学是有规律有趣味的学科吧,我还是从每个字母、每个符号的含义学起,今天最基本的有这些,X输入变量,Y输出变量,(x,y)一个样本点,还有这里不方便写出来的第i个样本点,梯度,偏导与样本参数,函数参数等等。

      2、碰到问题,要如何选择ML方法。今天的introduction中,NG分类说明,ML大致分为supervised learning、unsupervised learning,semisupervised learning,reinforced learning。其中监督式的主要有regression、classification,例如,房价-尺寸问题,又如癌症-年龄or 癌症-癌细胞大小问题,如此,便引出了,怎样用有限dimension表示无线dimension的方法,SVM。无监督例如课中所示的音频的分割。而强化学习就主要是应用在一些robots上,通过定义什么是good performance,怎样去做good thing,去达到学习的目的。

      总体来说,NG提到machine learning就是每个人在有一定的Experience 下接受一个Task,然后我们去估计它的Performence,也即E\T\P。

      而梯度下降法则是(与最小二乘法一样)最小化损失函数的方法。它通过每次前进的很小一步,通过选择下降最快的方向,来达到收敛,而其收敛结果依赖于起始点的选择。

==============================我是hll的分割线啊=============================

      时间不多,继续总结关于paper与lab work,总算是从“边缘化”的一只变成找到“组织”的人了,昂,感激的一逼。

      paper是关于news与社会评论对齐的工作。个人觉得总体是找到了一个创新的研究点,而模型是采用LDA模型,在训练的时候,不是直接用句子,转换成用topic去跑,大致理解是这样子的,时间关系,特别细节的东西明天细抠完了再聊吧。

     夜已深,大家入睡吧,承鸭哥一句话,it not suitable for me to be a coder,这个结论正确与否,我不想探究了,反倒是他提出来,我很惊讶,就祝愿远方的故友能每天开心快乐吧。其实,每个人都可以的,我干嘛那么矫情,社会给了我“程序媛”这个角色,就加油努力大踏步向前。晚安,早安


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值