- 博客(390)
- 资源 (2)
- 收藏
- 关注
原创 快速入门——深度学习理论解析与实战应用
1. 前言记得是 2016 年 3 月 15 日,红色石头坐在下班的地铁上,跟往常一样,打开手机,看看新闻。突然,一条醒目的新闻吸引力我的注意:《AlphaGo 最终局战胜李世石 人机大战总比分 1:4》!虽然,我之前也知道一点 AlphaGo,但是这条新闻着实让我比较惊讶。因为,它标志着人工智能第一次在围棋领域战胜了世界大师级别的选手!机器要逆天了?!AlphaGo 是谁?Alpha...
2018-07-11 21:01:54 13812 48
原创 完结篇 | 吴恩达deeplearning.ai专项课程精炼笔记全部汇总
个人网站:红色石头的机器学习之路 CSDN博客:红色石头的专栏 知乎:红色石头 微博:RedstoneWill的微博 GitHub:RedstoneWill的GitHub 微信公众号:AI有道(ID:redstonewill)从去年8月份开始,AI界大IP吴恩达在coursera上开设了由5们课组成的深度学习专项课程,掀起了一股人工智能深度学习热潮。这...
2018-05-05 18:13:43 67792 12
原创 太炸裂了!还得是讯飞...
大家好,我是红色石头!这几天突然感慨:大模型发展太快了!几个月前还是 ChatGPT 一枝独秀,如今国内的大模型如雨后春笋版涌现,而且发展势头愈来愈强。不少人可能有这样的疑虑:国产大模型这么多,应该选择哪一个?几个月前,科大讯飞发布了星火认知大模型。作为第一批体验星火的用户,实话说效果性能还是很不错的,特别是对中文的支持。如果你还没有体验的话,可以从我这里获得体验入口!官方注册入口:作为第一批讯飞...
2024-01-22 14:29:20 851
原创 腾讯员工:能查到年终奖了,111354 元!
年关将至,互联网热议的话题,又要来到了一年一度的年终奖环节。这不,近日有鹅厂员工已经开始晒年终奖了。一看金额:111354元。属实让人羡慕~腾讯的同事们,可以尽早查询一下了,你们的年终奖数额应该已经敲定了!不得不说,腾讯的年终奖发放速度和数额令人羡慕,预计其他大型企业的员工也会开始秀出自己的年终奖。但是并非每个员工都能轻松查询到这些信息。要获得这些数据,需要公司进行报税,然后才能查看。各公司各部门...
2024-01-01 14:41:36 531
原创 效率提升 100%,一款效果炸裂的白板神器!
大家好,我是红色石头!今天给大家分享一个开源的手绘图神器:excalidraw。不管是学生还是工作人员,我们在日常的工作学习中经常要记笔记,如果有一款优秀的电子白板用来绘图或者记笔记,那将会大大提高我们的工作学习效率!之前我也一直在寻找这样的白板绘图记笔记的工具,前几天逛 GitHub 的时候,就发现了一款神器:Excalidraw。试用起来就两个字:好用!一、简介Excalidraw是一款开源的...
2023-10-30 10:54:16 166
原创 GPT-4 终于开放了!
2023年,OpenAI的ChatGPT已经成为了一个不可忽视的存在。作为一种基于GPT模型的聊天机器人,ChatGPT在过去的一年多时间里里取得了令人瞩目的进步。从最初的简单问答,到现在能够进行深度对话,甚至可以执行代码,ChatGPT的能力在不断扩展,其发展速度之快,超出了许多人的预期。这不仅是技术进步的体现,也预示着人工智能正在逐步改变我们的生活。7 月 7 日,OpenAI 针对 Chat...
2023-07-08 10:54:35 293
原创 泰酷辣!有人把 81 个国内大模型汇总在一张图里!
在科技的世界里,一场革命正在悄然进行。这场革命的主角,就是我们今天要讲的“大模型”。这些大模型,就像一群巨人,正在各个领域中挥舞着他们的力量,引领着一场前所未有的技术变革。在国内,这场大模型的研发热潮正在如火如荼地进行。这些大模型的名字各具特色,有的高大上,有的接地气,有的历史悠久,有的寓意深远。他们的出现,让我们感觉仿佛是在观看一场“百模大战”。最近,有网友在Github上列出了81家的大模型,...
2023-06-28 11:09:42 1267
原创 刚刚,吴恩达 ChatGPT 新课三连发!
你有没有想过,你可以自己构建一个AI系统,或者开发一个使用大语言模型(LLM)的应用,甚至理解并创建扩散模型?我在吴恩达的三门新课程中找到了答案,这些课程让我看到了AI的无限可能性。好消息!就在昨天,吴恩达在推特上宣布三门新的生成式AI课程上线。这三门课分别是:《使用OpenAI的ChatGPT API构建系统》《LangChain用于LLM应用开发》《扩散模型如何工作》一、ChatGPT API...
2023-06-02 10:51:56 763
原创 突然放大,Midjourney 来中国了!
突然放大,Midjourney 来中国了!一、 Midjourney内测版本的推出Midjourney,一款新颖的 AI 视觉艺术平台,近日在中国开放了内测版。这个内测版本在 QQ 频道上进行,每周一和周五的 18:00 开放入口,人数一旦满足,入口就会关闭,直到下次开放。用户只需扫描二维码,即可进入进行体验。二、 功能丰富,用户体验升级内测版功能丰富,虽然部分功能只对会员开放,但大部分功能对所有...
2023-05-17 10:51:11 927
原创 桌面版 ChatGPT 来了!
由于工作、学习需要,现在基本上每天都要使用几个小时的 ChatGPT。一直以来的方法就是登录 OpenAI ChatGPT 的 web 版:http://chat.openai.com/每天登录网页比较麻烦,如果能有一个桌面应用就方便了!今天就给大家推荐一个 ChatGPT 的桌面版应用:ChatGPT Desktop Application!ChatGPT Desktop Application...
2023-05-07 12:10:48 4930 4
原创 一款可以让 ChatGPT 联网的神器!
我们知道,不论是 GPT-3.5 还是 GPT-4.0,他们的知识库都是截至到 2021 年 9 月的。还无法实现即时联网并获取最新的咨询信息。我之前在星球分享过的谷歌浏览器插件 ChatGPT for Google,可以在进行谷歌网页搜索的同时,获取 ChatGPT 的回答。但是 ChatGPT 依然无法联网。今天分享一个可以让 ChatGPT 联网的神器,真正做到了 Google+ChatGP...
2023-04-22 10:51:13 5331
原创 比微信还方便,一键导出你与 ChatGPT 的聊天记录,而且是 Markdown 格式!
需求:我们知道 ChatGPT 是文本形式输出内容。在有时候与 ChatGPT 进行交谈的过程中,遇到 ChatGPT 提供的有价值的信息,我们通常想要把整个对话内容保存起来或者复制到别的地方展示。一般的方法就是将整个对话框截图,或者一段一段话复制,非常麻烦!面对这种问题,如果能够将整个 Chat 对话框所有内容保存为一种格式,以文件的形式保存下来就好了!而 Markdown 就是一种很好的文件格...
2023-04-12 10:51:54 6134
原创 1 分钟搞定!ChatGPT + XMind 打造最高效的思维导图
今天专门写篇文章手把手教大家如何使用 ChatGPT 和 XMind,1 分钟自动生成思维导图。1、首先进入 ChatGPT 的网站,对 ChatGPT 提出你的需求,例如我希望做一个“机器学习如何入门”的思维导图,那么我可以这样说:“请使用markdown格式帮我制作一份思维导图,主题是机器学习如何入门,请用代码呈现”注意,“请用代码呈现”这句话必须加上,这样的话,ChatGPT 就会生成 ma...
2023-04-08 16:31:36 3428
原创 保姆级教程:我把 GPT-4 打造成了雅思口语私人教练!
跟大家说一个好消息,我们的星球【ChatGPT中文社区】已经 800 多人了。这 800 多名球友属于第一波在星球里学习到如何注册 ChaGPT、如何升级 GPT-4,如何进行 AI 绘画等实操。真的印证了那句话:早就是优势!我们都知道 ChatGPT 是基于文字的对话模式。你有没有想过是否能跟 ChatGPT 进行口语对话、交流?答案是完全可以!不仅如此,ChatGPT 甚至还可以帮助我们练习雅...
2023-04-05 10:51:27 3853 1
原创 强的离谱!别玩啥 Bing 了!我把 Google 和 ChatGPT4 合二为一!
跟大家说一个好消息,我们的星球【ChatGPT中文社区】已经 700 多人了。这 700 多名球友属于第一波在星球里学习到如何注册 ChaGPT、如何升级 GPT-4,如何进行 AI 绘画等实操。真的印证了那句话:早就是优势!之前有一个球友问我:谷歌的搜索引擎内容丰富,而 ChatGPT 又如同一个高智商的 AI 机器人,能不能将二者结合起来呢?答案是:还真有!今天给大家免费介绍一个我只在星球私密...
2023-04-01 12:10:12 742
原创 新版 Midjourney 怎么玩?免费的傻瓜教程来了!
这段时间大家都看过这张图片吧:你以为它是照片,其实它只是由 AI 绘图生成的图像!这款 AI 绘图工具就是大名鼎鼎的 新版 Midjourney!Midjourney 太火了!无论你是画师、设计师,还是淘宝电商等,都不得不熟悉并利用这种超级牛逼的 AI 绘图工具,不然真的保不定哪天就被淘汰了!Midjourney 怎么玩?相信很多小白还不清楚!这不巧了么不是,今天给大家带来一份详尽的 Midjou...
2023-03-28 10:51:45 3957 3
原创 免费 GPT-4 神器来了,这下我彻底不用写代码了!
前两天在网上看到了一款基于 GPT-4 的新一代辅助编程神器:Cursor,官网介绍说是与 OpenAI 合作的并且基于 GPT-4 模型(存疑)。简单概况一下:代码真的不用我们自己写了,一行指令,它就能帮我们把代码写好!牛不牛?更重要的是这个编辑器是免费的!红色石头第一时间下载 Cursor,并实际体验了一把!首先打开 Cursor 的官网:https://www.cursor.so/Curso...
2023-03-21 10:54:30 1040
原创 机器学习100天(四十一):041 对偶支持向量机-公式推导
本节主要延续上一节的内容,推导线性支持向量机的对偶形式。本节内容包含的数学理论和推导很多,我尽量简化其中的数学部分,只做感性的介绍,便于大家在理解的同时不受数学复杂公式的阻挠。对于这种大于零的情况,其最大值是无解的。有两种情况,第一种情况:若目标函数的最优解(即靶心)就落在约束函数之内,则该约束不起任何作用,即拉格朗日因子。现在,目标函数是最大化,为了计算方便,我们可以改变正负号,将最大化问题转换为最小化问题。那么,上述不等式关系就变成强对偶关系,≥ 变成 =, SVM 的解就转化为右边的形式。
2023-03-06 11:10:05 542 2
原创 机器学习100天(四十):040 线性支持向量机-公式推导
直观上来看,我们会选择 C这条直线,因为这条直线不仅分类正确,而且距离正负类样本的距离都很远。因为若要保证对未知的测试数据也能进行正确分类,最好让分类直线距离正类负类的点都有一定的距离。要让 margin 最大,即让距离分类线最近的点到分类线距离最大,我们先来看一下如何计算点到分类线的距离。因此, 距离分类线最近的点与分类线的距离越大,表明该分类模型越好。首先,我们定义距离分类线最近的点与分类线的距离叫做最大间距,用 margin 表示。的一次函数,所以,它的求解过程还是比较容易的,可以使用库函数来求解。
2023-03-06 10:15:42 549
原创 机器学习100天(三十九):039 朴素贝叶斯-处理连续数据
接下来是重点,使用高斯朴素贝叶斯对连续型数据进行分类。由于标签 y 中的类别是字符串变量,所以要对其进行编码,三个类别分别用 0、1、2 来表示。最后对 X_test 近预测,使用 metrics_accuracy_score 函数计算朴素贝叶斯模型在测试集上的准确率。选中运行,从打印的信息可以看到准确率为 100%。然后导入数据集,这里我们选择鸢尾花数据集。打开 X 可以看到其包含了 4 个特征,且每个特征都是连续型数据。打开 y,可以看到其包含了3个类别。选中运行,可以看到鸢尾花数据集的空间分布。
2023-03-04 11:27:27 330
原创 机器学习100天(三十八):038 朴素贝斯-处理离散数据
当 alpha=1 时,表示拉普拉斯平滑(Laplace smoothing),做法就是在条件概率公式的分子加上 alpha,分母加上 S*alpha,S 为某特征的个数。如果我们设置这里的 alpha=0,再运行一下代码,可以的到预测瓜生、瓜熟的比例分别为:0.0657、0.9343。首先导入标准库,然后导入数据集,总共包含10个样本,特征瓜蒂用0表示脱落、1表示未脱落,特征形状用0表示圆形、1表示尖形,特征颜色用0表示深绿、1表示浅绿、2表示青色。这样,X_train 就写成这样的形式。
2023-03-04 11:19:07 527
原创 机器学习100天(三十七):037 朴素贝叶斯-挑个好西瓜!
P(瓜熟) × P(脱落 | 瓜熟) × P(圆形 | 瓜熟) × P(青色 | 瓜熟) = 0.6 × (2 / 3) × (2 / 3) × (1 / 3) = 4 / 45。P(瓜生) × P(脱落 | 瓜生) × P(圆形 | 瓜生) × P(青色 | 瓜生) = 0.4 × 0.25 × 0.25 × 0.25 = 1 / 160。这时候,红色石头就完全可以根据样本数据和朴素贝叶斯公式来计算是好瓜的概率是多少。最后,根据这两个概率,我们就可以直接计算瓜熟的概率和瓜生的概率。
2023-03-03 23:05:20 2029
原创 机器学习100天(三十六):036 朴素贝叶斯
知道判断一个瓜是否熟了,除了要看瓜蒂是否脱落,还要看瓜的形状和颜色。红色石头有点慌,不过没关系,我们可以使用上一节引入的贝叶斯定理思想来尝试解决这个问题。现在,特征由原来的 1 个,变成现在的 3 个,我们用 X 表示特征,用 Y 表示瓜的类型(瓜熟还是瓜生)。上面的公式看似有点复杂,但其实与上一节单特征(瓜蒂是否脱落)的形式是一致的。我们把这两个概率带入特征,就写成这样的形式。因此,分母可以省略,不同的。值得注意的是上式中的分母部分,对于所有的。现在,红色石头拿起一个西瓜,观察了它的。
2023-03-03 23:00:43 688
原创 机器学习100天(三十五):035 贝叶斯公式
为了解决这个问题,我们挑选一批西瓜,根据先验概率,西瓜的状态分成两种:瓜熟与瓜生,概率分别为 0.6 与 0.4。且从这批西瓜中统计,瓜熟里面瓜蒂脱落的概率是 0.8,瓜生里面瓜蒂脱落的概率是 0.4。那么,如果我现在挑到了一个瓜蒂脱落的瓜,则该瓜是好瓜的概率多大呢?这样,我们就计算得到了瓜蒂脱落的瓜是好瓜的概率是 0.75。好了,上一节介绍完先验概率、后验概率、联合概率、全概率后,我们来看这样一个问题:如果我现在挑到了一个瓜蒂脱落的瓜,则该瓜是好瓜的概率多大?,然后,分子根据联合概率可以写成。
2023-03-02 09:54:56 3253
原创 机器学习100天(三十三):033 KD树的Python实现
如果 self.nearest 中存储的个数小于 count,则直接将新叶子节点加入到 count中,否则将新叶子节点与 self.nearest 中存储的每个点进行比较,当新叶子节点更近时,则加入到 self.nearest 中,替换原来 self.nearest 中最大距离的点。可以看到构造的 KD 树的结构,冒号后面的数字表示 KD 树的层级。我们运行这几行代码,从打印的信息可以看出:最近邻的 3 个点分别是:(1,-3)、(-2,-1)、(-6,-5),对应的距离分别是:4.47、4.12、3。
2023-03-01 14:58:15 442
原创 机器学习100天(三十二):032 KD树的构造和搜索
机器学习100天,今天讲的是:KD树的构造和搜索!在 K 近邻算法中,我们计算测试样本与所有训练样本的距离,类似于穷举法。如果数据量少的时候,算法运行时间没有大的影响,但是如果数据量很大,那么算法运行的时间就会很长。这在实际的应用中效率很低。因此,为了最快地进行检索,就提出了一种新的算法:KD树(k-dimensional tree)。KD树是二叉树的一种,是对 k 维空间的一种分割,不断地用垂直于坐标轴的超平面将k维空间切分,形成 k 维超矩形区域。
2023-03-01 14:36:58 457
原创 机器学习100天(三十一):031 K近邻回归算法
我们之前讲了 K 近邻分类算法,用来处理分类问题。其实 K 近邻也可以用来处理回归问题。如左图所示,K 近邻分类算法的思路是选取与测试样本距离最近的前 k 个训练样本。然后对着 k 个训练样本的 label 进行投票,票数最多的那一类别即为测试样本的类别。而 K 近邻回归算法也是类似,如右图所示,即选取与测试样本距离最近的前 K 个训练样本,以这 K 个训练样本的平均值作为测试样本的回归预测值。例如在房价预测问题中,K3K=3K3xtx_txt的预测值y\hat yyyx。
2023-01-12 15:25:32 390
原创 机器学习100天(三十):030 K近邻分类算法-K值的选择
在这个 for 循环中,对于每个超参数 K 值,循环抽取 5 份数据集里不同的 4 份作为训练集 Xtr、ytr,剩下的 1 份作为验证集 Xcv、ycv。首先定义 num_folds=5,表示将训练数据分为 5 份,超参数K可选值是 3、5、7、11,存储在 K_classes 列表中。上一节我们讲了 K 折交叉验证的理论,下面我们将 K 折交叉验证算法应用到 K 近邻分类算法中,用来选择最合适的超参数 K 值。机器学习100天,今天讲的是:K近邻分类算法-K值的选择。,提取码:9zjw。
2023-01-06 10:29:55 558
原创 机器学习100天(二十九):029 K折交叉验证
简单交叉验证就是将原始数据集随机划分成训练集和验证集两部分。例如将样本按照 70%~30% 的比例分成两部分,70% 的样本用于训练模型;机器学习中,我们常会遇到一个问题,就是超参数的选择,超参数就是机器学习算法中的调优参数,比如上一节 K 近邻算法中的 K 值。K 折交叉验证就是帮助我们选择最优的超参数。需要特别注意的是,K 折交叉验证一般对于数据量不大的时候效果更好。K 折交叉验证是简单交叉验证的升级。机器学习100天,今天讲的是:K 折交叉验证!这就是使用 K 折交叉验证来选择最优的超参数。
2023-01-06 10:09:57 722
原创 机器学习100天(二十八):028 K近邻分类算法-Python实现
准备工作做完之后,重点来了!就是定义 K 近邻分类算法的核心代码。我们定义一个 K 近邻分类算法的类 KnearestNeighbor。初始化 init 函数不需要做任何操作。训练函数 train 做得是将训练集的 X 和 y 存储起来。预测函数 predict 是核心代码,参数 X 是测试集,默认 k=1,num_test、num_train 分别是测试集、训练集的样本个数,构造二维矩阵 dists 来存储测试集每个样本与训练集每个样本的距离。这里我们选择使用欧式距离。
2023-01-06 09:42:24 426
原创 机器学习100天(二十七):027 Python中的函数和类
为了方便后面机器学习算法编写程序,秉承从零开始的原则,我们在此节简单介绍一下 Python 的编程知识。
2023-01-05 16:08:51 253
原创 机器学习100天(二十六):026 k近邻分类算法-理论
K 近邻算法也叫 KNN(k-Nearest Neighbor)算法,它是一个比较成熟也是最简单的机器学习算法之一。K 近邻分类算法的思路是:如果一个样本在特征空间中与 K 个实例最为相似(即特征空间中最邻近),那么这 K 个实例中大多数属于哪个类别,则该样本也属于这个类别。如上面这张图所示,二维平面上有两个类别:红色三角形表示类别 0,蓝色正方形表示类别 1,现在有一个绿色圆形样本,判断它属于哪一类?
2023-01-05 15:29:39 315
原创 机器学习100天(二十五):025 L2正则化的Python实现
for 循环结束之后,绘制代价函数 J_history 的变化,然后,作图绘制拟合直线与原始样本的拟合程度。for 循环结束之后,绘制代价函数 J_history 的变化,然后,作图绘制拟合直线与原始样本的拟合程度。可以发现,由于使用了 L2 正则化,拟合直线消除了正弦抖动的干扰,呈现原始数据的一次线性关系。对比未使用 L2 正则化,从权重参数可以看出,使用 L2 正则化之后,高阶参数。可以发现,拟合直线受到了正弦抖动的干扰,呈现高阶特性,模型发生了过拟合。设置为 0.04,值得注意的是,
2023-01-05 15:16:44 749
原创 机器学习100天(二十二):022 分类模型评价指标-Python实现
除了 matplotlib.pyplot 之外,重点需要用到 sklearn.metrics 模块中的 accuracy_score、precision_score、recall_score、f1_score、roc_curve、auc 这些函数。先将真实标签和预测标签作为参数带入到 roc_curve 函数中,得到了假正例率 FPR、真正例率 TPR,还有用于计算 FPR 和 TPR 的决策函数的阈值。可以看到:准确率=0.75,精确率=0.73,召回率=0.80,f1_score=0.76。
2023-01-03 11:05:28 555 1
原创 机器学习100天(二十一):021 分类模型评价指标-ROC曲线和AUC
我们知道,分类模型是有一个阈值的,逻辑回归使用 sigmoid 函数,一般默认阈值是 0.5,大于 0.5 判断为正类,小于则为负类。而在实际的应用中,根据具体情况,我们可以采用不同的阈值,例如若更重视精确率,则可选择较大一点的阈值;然后,以假正例率为横坐标,以真正例率为纵坐标,把所有的点连接起来,就得到了右边这张图所示蓝色的曲线。因此,AUC 就是评价一个分类模型的指标,AUC 越大,表示 ROC 曲线越靠近左上角,说明模型越好。经过以上分析,我们可以说,ROC 曲线越靠近左上角,该分类器的性能越好。
2022-12-30 11:17:06 547
原创 机器学习100天(二十):020 分类模型评价指标-PR曲线
如图中所示,P-R 曲线的 P 就是精确率(也称为查准率),R 就是召回率(也称为查全率)。对于同一个模型,通过调整分类阈值,可以得到不同的 P-R 值。不同的阈值,计算得到不同的 P 值和 R 值,然后将所有不同阈值下的 P-R 坐标点连接起来,就得到了 P-R 曲线。比较两个分类器好坏时,显然是查得又准又全的比较好,也就是说 PR 曲线越往坐标(1,1)的位置靠近越好。也可以通过平衡点(即查准率=查全率的点,P-R 曲线与这条虚线的交点,称为 Break-Even Point,BEP)来判断。
2022-12-30 11:08:02 906
Python Machine Learning
2017-06-15
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人