- 博客(10)
- 收藏
- 关注
原创 修正《深入应用C++11代码优化与工程级应用》代码错误
1.作者为了实现在对象池被销毁后将从里面取出的对象用完后能被自动销毁而不是继续存入已经销毁的对象池中,为对象池加了一个needClear属性,同时将每个取出的对象用shared_ptr封装,并设计特别的删除器,该删除器捕获了this指针,这个操作会在this被销毁后失效,从而出现野指针。2.对象池应该为单例模式,不应该被多次创建。
2023-10-12 21:00:50 115 1
原创 向量的无穷范数证明:
网上的答案乱七八糟的,搜了半天,才发现这个问题这么简单。括号里面的一堆是一堆(有限个)无穷小和一个1相加。注意左边式子括号内是有穷项相加。因此最终结果为max(xi)我们提出个最大值max。
2023-06-18 20:40:30 763 1
原创 对于欠拟合和过拟合的理解
随着数据集的增大,对于低于最佳容量的模型,训练误差会逐渐增大(因为模型容量不足以反应其样例特点,其误差在样本很小时可能会被修正,但随着误差增大就越来越难找到一个满足所有的样例特定的模型了),最终趋近于贝叶斯误差(数据过大会对模型进行一定的修正),而其测试误差就高于贝叶斯误差,毕竟你不能很好反映测试样例的特点。请注意,最优模型阶数(或者说函数空间)其实并不固定,是随着样本空间增大,整体趋于增大的,而对于任何固定容量的模型(在这里指的是二次模型)的训练误差都至少增至贝叶斯误差。这两个概念都是针对训练集的。
2023-06-13 16:34:02 131 1
原创 Deep Learning线性回归的讲解
中的每个元素为对每个xi的一个对应系数,也就是一个权重,x中的每个元素和其权重的乘积加和得到y的预测值。为求其最小值,我们对其关于w求导(向量求导),并令其等于0,获取对应的w。因此其2范式为转置和其的乘积,即:(常数省略了)我们没有可我们构建时是拿训练集来构建w的呀。这样,我们就构建了一个线性回归模型了。我们希望构建一个这样的函数。能够得到较好的效果,也就是。为对称矩阵(任何一个矩阵的。都为对称矩阵),则结果为。最后一部分与w无关,为0。
2023-06-13 14:26:48 136 1
原创 内存模型的详解
最近所看的论文有涉及到内存模型的部分,去网上查阅发现涉及的文章并不多,且有些文章细节上漏洞百出,以下是我在看过Shared Memory Consistency Models:A Tutorial.的论文后,对其的总结。
2023-05-15 16:02:03 314 1
原创 C++11特性 万能引用 引用折叠
我们知道,变量的操作都可以概括为读和写,读要求变量的右值属性即可,写则要求变量的左值属性,const引用显然不允许写操作,因此无论左值还是右值都可以绑定上去,(实际上绑定右值相当于拷贝了一份临时变量再绑定)编译时多态有两种体现形式,一种是模板,一种是auto和decltype(decltype并不能形成万能引用,但与下面要讲的引用折叠息息相关)C++不允许引用的引用这一说法,但第二类万能引用 and decltype很可能产生引用叠加问题。说人话就是这个引用即能引用左值又能引用右值。
2023-04-06 19:23:53 207 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人