![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 96
叶落叶子
这个作者很懒,什么都没留下…
展开
-
知识复习:nlp算法面试汇总
1.optimizer1.1 随机梯度下降x=x-lr*g随机:每次算一个数据的梯度mini-batch:每次算一批数据的梯度(平均)1.2 adam原创 2021-03-23 15:30:35 · 997 阅读 · 0 评论 -
cosine_similarity和torch.cosine_similarity速度差异(人间奇事)
最近聚簇计算相似度,使用了下面两种方法。一开始用的sklearn,因为没有gpu后来有了gpu就换上了pytorchgpu是V100batch=500(说是batch,只是为了预防超出内存,做的限制。跑的是个循环速度大概是这样子的:torch的cosine:cpu 3s/it,gpu v100 1.8s/itsklear:cpu 50it/s总之这个速度差就很离谱,有谁能做个解释吗?from sklearn.metrics.pairwise import cosin.原创 2020-12-16 10:49:08 · 2428 阅读 · 1 评论 -
李宏毅2020深度学习-判别方法和生成方法
二分类数据少的情况下,生成方法可能比判别方法好数据多时,判别方法获得的效果好于生成方法数据量少时贝叶斯分类可能会脑补如:类1:(1,1)1个类2:(0,1),(1,0),(0,0)—各有四个判别:(1,1)属于类1的概率<0.5原因:数据少,贝叶斯自己脑补的...原创 2020-03-15 18:39:50 · 500 阅读 · 0 评论