自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 基于冒泡排序思路的排序算法题练习

进阶:时间复杂度 O(nlogn)O(nlogn),空间复杂度 O(n)O(n)给定一个长度为 n 的数组,请你编写一个函数,返回该数组按升序排序后的结果。,数组中每个元素都满足 0 \le val \le 10^90≤val≤10。数据范围: 0 \le n \le 1\times10^30≤n≤1×10。注:本题数据范围允许绝大部分排序算法,请尝试多种排序算法的实现。要求:时间复杂度 O(n^2)O(n。),空间复杂度 O(n)O(n)此答案基于冒泡排序思路。

2023-03-17 01:15:00 126

原创 单向单链表转换问题解析

反转链表

2023-03-13 12:52:06 135

原创 Postgres中对Jsonb多级对象进行查询

Postgres中对Jsonb多级对象进行查询SELECT e FROM scene_actor_template_typhoon_record CROSS JOIN LATERAL jsonb_array_elements ( points -> 'points' ) AS eWHERE points :: jsonb ->> 'name' = '雷伊' AND e :: jsonb ->> 'time' > '2021-12-13T14:00:00'

2022-05-07 18:47:56 713

原创 安全删除GitHub中的所有提交历史记录

如何删除GitHub中的所有提交历史记录?删除.git文件夹可能会导致git存储库中的问题。如果要删除所有提交历史记录,但将代码保持在当前状态,可以按照以下方式安全地执行此操作:1. 尝试 运行 git checkout --orphan latest_branch2. 添加所有文件git add -A3. 提交更改git commit -am "commit message"4. 删除分支git branch -D master5. 将当前分支重命名git branch -m master

2022-03-19 11:16:49 537

原创 对Docker中部署的tomcat时区进行修改

进入docker tomcat容器docker exec -it tomcat /bin/bash在容器中执行echo “Asia/Shanghai” > /etc/timezone查看修改情况cat /etc/timezone退出容器exit重启tomcatdocker restart tomcat

2022-02-17 17:29:41 500

原创 问题记录:git无法找到远程分支

使用以下命令更新分支 git remote update origin --prune # 更新远程主机origin 整理分支

2021-05-06 11:21:23 722

原创 贝叶斯公式(Bayesian)的学习

贝叶斯公式(个人理解版)P(X∣Y)=事件X在事件Y中发生的概率=事件X和Y同时发生的概率事件X发生的概率=P(XY)P(X)=P(X∣Y)×P(Y)P(X)P(X|Y)=事件X在事件Y中发生的概率=\frac{事件X和Y同时发生的概率}{事件X发生的概率}=\frac{P(XY)}{P(X)}=\frac{P(X|Y)\times P(Y)}{P(X)}P(X∣Y)=事件X在事件Y中发生的概率=事件X发生的概率事件X和Y同时发生的概率​=P(X)P(XY)​=P(X)P(X∣Y)×P(Y)​理解思路

2021-02-21 22:12:57 3090 5

原创 垃圾邮件识别任务中朴素贝叶斯分类算法的使用思路

垃圾邮件识别任务中朴素贝叶斯分类算法的使用思路判断一个邮件是否是垃圾邮件:step1. 训练模型过程:1.计算先验概率:如现有200封正常邮件,100封垃圾邮件可得到:P(正常邮件)=200200+100=23P(正常邮件)=\frac{200}{200+100}=\frac{2}{3}P(正常邮件)=200+100200​=32​P(垃圾邮件)=100200+100=13P(垃圾邮件)=\frac{100}{200+100}=\frac{1}{3}P(垃圾邮件)=200+100100​=31​

2021-02-21 22:12:11 808

原创 机器学习Machine Learning学习及常用的算法

机器学习定义自动从已有数据里找出一些规律,然后把学到的规律应用到对未来数据(future data)的预测中,或者在不确定环境下自动地做一些决策机器学习算法的分类有两个维度做划分:监督学习和非监督学习生成模型和判别模型常用算法举例:有监督学习(Supervised Learning)无监督学习(Unsupervised Learning)生成模型(Generative Model)朴素贝叶斯(Naive Bayesian)隐马尔科夫(HMM)线性判别分析(LDA)

2021-02-21 18:22:57 259

原创 Language Model语言模型学习

应用场景判断一句话是否通顺(是不是人话)自动生成句子,诗句,作文,等单词纠错等等种类Unigram-ModelBigram-ModelN-gram-Model计算方式Unigram-Model:p(w1,w2,w3……,wn)=p(w1)p(w2)p(w3)……p(wn)p(w_1,w_2,w_3……,w_n)=p(w_1)p(w_2)p(w_3)……p(w_n)p(w1​,w2​,w3​……,wn​)=p(w1​)p(w2​)p(w3​)……p(wn​)Bigram-Mod

2021-02-21 15:41:47 283

原创 Good-Turning Smothing 学习

使用场景语言模型平滑化等公式没有出现过的单词出现的概率Pmle=0P_{mle}=0Pmle​=0 (mle的方式)Pgt=N1NP_{gt}=\frac{N_1}{N}Pgt​=NN1​​ (good-turning的方式)出现过的单词出现的概率Pmle=cNP_{mle}=\frac{c}{N}Pmle​=Nc​(mle的方式)Pgt=(c+1)Nc+1Nc×NP_{gt}=\frac{(c+1)N_{c+1}}{N_c\times N}Pgt​=Nc​×N(c+1)Nc+1​

2021-02-21 14:11:01 354

原创 td-idf理解

定义TF-IDF(term frequency–inverse document frequency)是一种用于信息检索与数据挖掘的常用加权技术。TF是词频(Term Frequency),IDF是逆文本频率指数(Inverse Document Frequency)。公式(个人理解版)以二维向量距离,更多维向量以此推类分子为向量的点乘,分母为距离tf=文档d中词w出现的次数tf=文档d中词w出现的次数tf=文档d中词w出现的次数idf=log⁡NN(w)(N为文档总量,N(w)为这个词出现在多

2021-02-18 11:51:31 2181 2

原创 文本相似度的几种计算方式

s1=(x1,x2,x3)s_1=(x_1,x_2,x_3)s1​=(x1​,x2​,x3​)s2=(y1,y2,y3)s_2=(y_1,y_2,y_3)s2​=(y1​,y2​,y3​)欧氏距离d=∣s1−s2∣=(x12−y12)+(x22−y22)+(x32−y32) d=|s_1-s_2|=\sqrt{(x_1^2-y_1^2)+(x_2^2-y_2^2)+(x_3^2-y_3^2)}d=∣s1​−s2​∣=(x12​−y12​)+(x22​−y22​)+(x32​−y32​)​缺点余

2021-02-18 11:32:10 2373

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除