小马帅就是我没错了
码龄9年
关注
提问 私信
  • 博客:231,997
    动态:24
    232,021
    总访问量
  • 34
    原创
  • 675,957
    排名
  • 91
    粉丝
  • 0
    铁粉

个人简介:凡事贵在坚持

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:安徽省
  • 加入CSDN时间: 2016-01-28
博客简介:

小马哥的博客

博客描述:
凡事贵在坚持
查看详细资料
个人成就
  • 获得232次点赞
  • 内容获得28次评论
  • 获得1,210次收藏
  • 代码片获得183次分享
创作历程
  • 2篇
    2021年
  • 6篇
    2020年
  • 23篇
    2019年
  • 3篇
    2018年
成就勋章
TA的专栏
  • matlab基本操作
    1篇
  • 生活
    1篇
  • 英语写作
    4篇
  • keras操作
    5篇
  • Forest
    2篇
  • Kaggle入门
    2篇
  • 深度学习基本概念
    6篇
  • 机器学习
    7篇
  • 文章阅读
    2篇
  • 格式问题
    3篇
兴趣领域 设置
  • 人工智能
    机器学习深度学习神经网络tensorflow图像处理nlp数据分析
创作活动更多

如何做好一份技术文档?

无论你是技术大神还是初涉此领域的新手,都欢迎分享你的宝贵经验、独到见解与创新方法,为技术传播之路点亮明灯!

183人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

matlab中数据拟合

两种方法1.工具箱使用步骤(更详细)输入待拟合的变量x输入待拟合的变量y输入cftool进入可视化操作界面. 之后便进入拟合工具箱其中左下角方框有一系列拟合参数的结果例如自定义函数2. matlab代码%自定义拟合函数f(t)=a*cos(k*t)*exp(w*t)clc,clearsyms tx=[0;0.4;1.2;2;2.8;3.6;4.4;5.2;6;7.2;8;9.2;10.4;11.6;12.4;13.6;14.4;15];%列向量x1 = [0.042;0.
原创
发布博客 2021.02.04 ·
1387 阅读 ·
0 点赞 ·
0 评论 ·
5 收藏

国内源地址

国内源地址中国科技大学: https://pypi.mirrors.ustc.edu.cn/simple/阿里云: http://mirrors.aliyun.com/pypi/simple/豆瓣(douban): http://pypi.douban.com/simple/清华大学: https://pypi.tuna.tsinghua.edu.cn/simple/中国科学技术大学 :http://pypi.mirrors.ustc.edu.cn/simple/科大放两个以显示其更好pip
原创
发布博客 2021.01.15 ·
9004 阅读 ·
3 点赞 ·
0 评论 ·
6 收藏

latex使用技巧之引用文献

北京大学李东风老师的LaTeX排版心得:链接windows版本CTEX下载:链接在线将表格转化为latex代码:链接参考文献在latex中使用方法:链接
原创
发布博客 2020.09.02 ·
735 阅读 ·
1 点赞 ·
0 评论 ·
2 收藏

latex使用技巧之图片放置

图片位置放置,双栏排版\begin{figure*}[tbp] \centering %使插入的图片居中显示 \includegraphics[height=4cm ,width=18cm,angle=0]{figure1.png} \caption{data acquisition board} %插入图片的标题,一般放在图片的下方,放在表格的上方 \label{fig1}%标注该图片,用于在文章内引用\end{figure*}\begin{figure}[h] \centering %
原创
发布博客 2020.09.02 ·
4664 阅读 ·
2 点赞 ·
1 评论 ·
5 收藏

实用技巧 - trick1

多分类下准召f1优化简单地说就是如果多类别不均衡的话,这时候直接使用神经网络优化交叉熵损失得到的结果,f1显然不是全局最优的,很多同学都会问,二分类下的阈值搜索我会,如果是多分类怎么做一个阈值搜索呢?传统的多分类我们预测结果使用argmax(logits)这时候,可以形式化的表达为求argmax(w*logits)使得f1均值最大。其中w就是要求得的再放缩权重。 我们可以使用非线性优化的方法,求解这个问题,scipy的库里有很多实现了。有序关系的离散标签优化我们经常遇到这样的问题,比如情感打分预测1-
原创
发布博客 2020.07.15 ·
453 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

Precision、Recall、F1-Score、Micro-F1、Macro-F1描述

TP、FP、FN、FPTP、True Positive 真阳性:预测为正,实际也为正FP、False Positive 假阳性:预测为正,实际为负FN、False Negative 假阴性:预测与负、实际为正TN、True Negative 真阴性:预测为负、实际也为负。【一致判真假,预测判阴阳。】例程:首先看真阳性:真阳性的定义是“预测为正,实际也是正”,这个最好理解,就是指预测正确,是哪个类就被分到哪个类。对类A而言,TP的个位数为2,对类B而言,TP的个数为2,对类C而言,TP的
原创
发布博客 2020.07.15 ·
615 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

nlp-bert

BERT 来自于 transformerseq2seq输入是什么?两个损失认为的计算介绍一些应用方法:
原创
发布博客 2020.03.06 ·
216 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

nlp-transformer

需要学习的知识点:Transformer中的encoder是干嘛的?怎么做的?Self的计算方式向量化计算多头注意力组合多头生成的z整个流程的简介多头注意力实际解释位置编码是什么?实例解释直觉上理解Batch Normalization 针对多个样本的同一维度的输出值;Layer Normalization 针对一个样本各个维度的输出值;Tr...
原创
发布博客 2020.03.06 ·
214 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

稀疏贝叶斯相关代码和论文

论文:Structured Bayesian Gaussian process latent variable model: applications to data-driven dimensionality reduction and high-dimensional inversion 链接github:https://github.com/cics-nd/sgplvm-inverse内...
原创
发布博客 2019.12.25 ·
2361 阅读 ·
0 点赞 ·
0 评论 ·
47 收藏

Loaded runtime CuDNN library: 7101 (compatibility version 7100) but source was compiled with 7005解决

主要是cudnn版本不兼容问题:首先找到对应文件下cuda的位置:本人电脑配置有两个cuda一个适用与tf2.0及其以上版本, v10.0一个适用与tf2.0以下版本, v9.0其实这个版本不影响,主要是路径(C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\cudnn)下的文件有影响:这里对应的是cudnn的不同版本,...
原创
发布博客 2019.11.25 ·
321 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

稀疏贝叶斯推断:基础之高斯与正态

摘要高斯分布,被誉为“上帝的分布”,具有强悍的建模能力和优美的数学性质,在现实中有广泛的作用。 由中心极限定理我们知道, 大量独立同分布的随机变量的均值在做适当标准化之后会依分布收敛于高斯分布, 这使得高斯分布具有普适性的建模能力;数学上, 当使用高斯分布对贝叶斯推断的似然和先验进行建模时, 得到的后验同样为高斯分布, 即其具有共轭先验性质。 在随机过程理论中, 多元高斯分布则是高斯过程的理论基...
原创
发布博客 2019.11.23 ·
1532 阅读 ·
4 点赞 ·
0 评论 ·
10 收藏

[keras使用出现] model.save() raise NotImplementedError 调节(ModelCheckpoint)函数

在更改resnet时保存最优模型出现的问题是因为在使用检查点时,默认还是使用了 paralleled_model.save() ,进而导致错误。为了解决这个问题,我们需要自己定义一个召回函数。三种方法:法一original_model = ...parallel_model = multi_gpu_model(original_model, gpus=n)class MyCbk(ke...
原创
发布博客 2019.11.21 ·
1259 阅读 ·
1 点赞 ·
2 评论 ·
3 收藏

胃不好,胃酸多,吃什么养胃?

养胃开场:古人云:治胃三七分,三分治,七分养。七分养应该在三分治的基础上进行,经全面检查确诊后进行系统治疗,并配合精神方面进行调养,才能达到理想的治疗效果。胃就像一部每天不停工作的机器,食物在消化的过程中会对黏膜造成机械性的损伤,保持有节制的饮食是治疗胃病的关键。另外,高度精神紧张也是胃病发生的重要原因,如司机、建筑工人、办公室工作人员等的胃病发生率都很高,所以这些人更应该保持良好的生活习惯及精...
原创
发布博客 2019.11.07 ·
799 阅读 ·
1 点赞 ·
1 评论 ·
1 收藏

keras自定义loss的两个例子

Lookahead和LazyOptimizer和AccumOptimizer转自:LookaheadLazyOptimizerKeras实现两个优化器用时间换取效果:Keras梯度累积优化器AccumOptimizerkeras inject#497keras/optimizers.pylookahead用法:model.compile(optimizer=Adam(1e-3)...
原创
发布博客 2019.09.01 ·
1525 阅读 ·
0 点赞 ·
2 评论 ·
1 收藏

Gram矩阵的意义

链接1:https://blog.csdn.net/wangyang20170901/article/details/79037867链接2:https://www.zhihu.com/question/49805962Gram Matrix实际上可看做是feature之间的偏心协方差矩阵(即没有减去均值的协方差矩阵),在feature map中,每一个数字都来自于一个特定滤波器在特定位置的卷...
原创
发布博客 2019.09.01 ·
1113 阅读 ·
0 点赞 ·
0 评论 ·
3 收藏

keras之callback使用

来源于苏神: 让kereas更酷一些回调函数:保存最优模型在Keras中,根据验证集的指标来保留最优模型,最简便的方法是通过自带的ModelCheckpoint,比如checkpoint = ModelCheckpoint(filepath = '../best_model.weights',monitor = 'val_acc',verbose = 1,save_best_on...
原创
发布博客 2019.09.01 ·
2310 阅读 ·
1 点赞 ·
1 评论 ·
13 收藏

keras之自定义层和部分loss

层的自定义Keras中自定义层及其一些运用技巧,在这之中我们可以看到Keras层的精巧之处。基本定义方法在Keras中,自定义层的最简单方法是通过Lambda层的方式:from keras.layers import *from keras import backend as Kx_in = Input(shape=(10,))x = lambda(lambda x:x+2)(x_...
原创
发布博客 2019.09.01 ·
3542 阅读 ·
4 点赞 ·
0 评论 ·
24 收藏

雅可比行列式的意义

参考知乎
原创
发布博客 2019.08.31 ·
17933 阅读 ·
4 点赞 ·
1 评论 ·
38 收藏
加载更多