![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能
文章平均质量分 93
无水先生
擅长数学,能熟练应用泛函分析、统计学、随机过程、逼近论、微分几何、非欧几何(双曲、共形)等数学理论,有数学建模能力。从事图像处理二十年以上,从事人工智能行业10年以上;在船舶、通信、铁路、教育等行业开发软件产品。
展开
-
掌握 NumPy:高效数组处理综合指南(第 2/2 部分)
欢迎来到我关于 NumPy 的教程的第二部分!之前,我们已经介绍了以下列表中的前 7 章。现在在这篇文章中,我们将从第 8 章一直到第 14 章。原创 2024-06-21 21:46:09 · 718 阅读 · 0 评论 -
强化学习和Q-Learning的综合研究
在我今天的中等帖子中,我将教您如何实现 Q-Learning 算法。但在此之前,我将首先解释 Q-Learning 背后的想法及其局限性。请务必具备一些强化学习 (RL) 基础知识。否则,请查看我之前关于 RL 背后的直觉和关键数学的文章。原创 2024-06-20 19:46:10 · 878 阅读 · 0 评论 -
朴素贝叶斯机器学习算法:从基础到高级
在测试阶段,该算法根据观察到的特征值检索相应的概率,将它们相乘,并提供最终输出,指示预测的类别。无平滑 (alpha = 0):在没有任何平滑的情况下,如果我们遇到一封新电子邮件,其中包含训练数据中未看到的特征值,则其概率将为零。给定特定的天气条件,例如天气 = 晴天,温度 = 凉爽,湿度 = 正常,大风 = 真,我们想预测这个条件穿过可可西里的可能性。我们用一个简单的示例,我们假如要提取出天气对翻越可可西里无人区的影响,提取出气候影响的模型,便可预测任意天气下,考察对穿越可可西里的可能性预测。原创 2024-06-19 22:46:20 · 585 阅读 · 0 评论 -
序列到序列模型中的注意力机制
在人工智能和机器学习领域,注意力机制的概念已成为提高神经网络效率和有效性的有力工具。受人类有选择地关注输入数据特定方面的认知过程的启发,注意力机制允许模型动态地将计算资源分配给给定输入的最相关组件。原创 2024-06-18 19:45:49 · 850 阅读 · 0 评论 -
什么是隐马尔可夫模型?
被称为隐马尔可夫模型的统计模型是计算生物学中反复出现的主题。什么是隐马尔可夫模型,为什么它们对这么多不同的问题如此有用?原创 2024-06-17 22:46:49 · 1181 阅读 · 1 评论 -
探索序列到序列模型:了解编码器和解码器架构的强大功能
欢迎来到我们进入序列到序列模型世界的旅程!在本博客系列中,我们将深入探讨编码器和解码器架构的迷人领域,揭示它们在理解和生成顺序数据方面的巨大力量。从语言翻译到文本摘要,序列到序列模型通过无缝捕获序列数据中的依赖关系,彻底改变了各个领域。原创 2024-06-17 20:34:57 · 1141 阅读 · 0 评论 -
了解统计学中不同类型的分布
统计学是理解数据的有力工具,其核心在于分布的概念。统计学中的分布有助于我们理解数据的分布方式,为各种数据集的概率和行为提供重要的见解。从熟悉的钟形曲线的正态分布到其他偏斜和重尾模式,本博客旨在解开不同类型的分布,清楚地了解它们在统计分析中的特征、应用和意义。原创 2024-06-16 00:21:05 · 1010 阅读 · 0 评论 -
深入浅出談 隐马尔可夫的概念(2/ 2)-- 训练理论
在许多机器学习的章节中,常常遇见 HMM ,往往看到它的数学式子后,就当没看到似的跳过去了,其实它的基础理论并不难,尤其是 Markov Chain 在高中数学课本就已经出现过了,但…那么久远的事,相信大家都忘得差不多了,现在一起来回顾一下吧!!在前面 part 2 有提醒大家慎入唷! 有满满多出来的数学式,要 hold 住呀!底下我们分成几个部分来说明和算法。原创 2024-06-16 00:05:08 · 811 阅读 · 0 评论 -
深入浅出談 隐马尔可夫的概念(1/ 2)
在许多机器学习的章节中,常常遇见 HMM ,往往看到它的数学式子后,就当没看到似的跳过去了,其实它的基础理论并不难,尤其是 Markov Chain 在高中数学课本就已经出现过了,但....那么久远的事,相信大家都忘得差不多了,现在一起来回顾一下吧!!原创 2024-06-15 23:38:50 · 814 阅读 · 0 评论 -
从GAN到WGAN(02/2)
生成对抗网络 (GAN) 在许多生成任务中显示出巨大的效果,以复制现实世界的丰富内容,如图像、人类语言和音乐。它的灵感来自博弈论:两个模型,一个生成器和一个批评家,在相互竞争的同时使彼此更强大。然而,训练GAN模型是相当具有挑战性的,因为人们面临着训练不稳定或收敛失败等问题。在这里,我想解释一下生成对抗网络框架背后的数学原理,为什么很难训练,最后介绍一个旨在解决训练难点的GAN修改版本。原创 2024-06-14 20:43:21 · 1754 阅读 · 0 评论 -
纳什均衡:博弈论中的运作方式、示例以及囚徒困境
博弈论者使用纳什均衡来分析多个决策者战略互动的结果。在战略互动中,每个决策者的结果取决于其他人的决策以及他们自己的决策。纳什思想背后的简单见解是,如果孤立地分析多个决策者的决策,就无法预测他们的选择。相反,我们必须问每个玩家在考虑到玩家对其他人的期望后会怎么做。纳什均衡要求玩家的选择是一致的:没有玩家希望在其他人做出决定的情况下撤销自己的决定。原创 2024-06-09 15:52:45 · 1397 阅读 · 0 评论 -
从GAN到WGAN(01/2)
生成对抗网络 (GAN) 在许多生成任务中显示出巨大的效果,以复制现实世界的丰富内容,如图像、人类语言和音乐。它的灵感来自博弈论:两个模型,一个生成器和一个批评家,在相互竞争的同时使彼此更强大。然而,训练GAN模型是相当具有挑战性的,因为人们面临着训练不稳定或收敛失败等问题。在这里,我想解释一下生成对抗网络框架背后的数学原理,为什么很难训练,最后介绍一个旨在解决训练难点的GAN修改版本。原创 2024-06-09 15:03:29 · 1071 阅读 · 2 评论 -
Pytorch手把手实作-Generative Adversarial Network (GAN)
前言废话免了,会进来看文章内容的只有四种人:1. 只想知道皮毛,GAN在干什么的 2. 想知道细节怎么把GAN训练起来;3. 收藏在收藏夹或是书签当作有看过了;4. 上课上到一定要点点进来。原创 2024-06-08 14:56:11 · 1124 阅读 · 0 评论 -
5 分钟内构建一个简单的基于 Python 的 GAN
生成对抗网络(GAN)因其能力而在学术界引起轩然大波。机器能够创作出新颖、富有灵感的作品,这让每个人都感到敬畏和恐惧。因此,人们开始好奇,如何构建一个这样的网络?原创 2024-06-07 19:58:11 · 1098 阅读 · 0 评论 -
GAN网络理论和实验(二)
生成对抗网络(GAN) 是一种神经网络,可以生成与人类产生的内容类似的材料,例如图像、音乐、语音或文本。近年来,GAN 一直是一个活跃的研究课题。Facebook 的 AI 研究总监 Yann LeCun 称对抗训练是机器学习领域 “*过去 10 年最有趣的想法*” 。下面,您将在实现自己的两个生成模型之前了解 GAN 的工作原理。原创 2024-06-07 17:16:24 · 983 阅读 · 0 评论 -
扩散模型会成为深度学习的下一个前沿领域吗?
谷歌的 AlphaFold 3 因其彻底改变生物技术的潜力而受到广泛关注。与以前的方法相比,导致其性能提升的关键创新之一是它利用了扩散模型。AlphaFold 3 的功能来自其下一代架构和训练,现在涵盖了所有生命分子。该模型的核心是我们的 Evoformer 模块的改进版本——一种深度学习架构,支撑了 AlphaFold 2 令人难以置信的性能。在处理输入后,AlphaFold 3 使用扩散网络组装其预测,类似于 AI 图像生成器中的预测。扩散过程从一团原子开始,经过许多步骤,汇聚到其最终的、最准确的分子结原创 2024-06-06 05:18:05 · 2076 阅读 · 1 评论 -
Kolmogorov–Arnold Networks (KAN) 即将改变 AI 世界
在人工智能中,多层感知器(MLP)是基石,其神经架构塑造了无数应用的格局。然而,Kolmogorov-Arnold Networks(KAN)试图通过重新构想神经元在神经网络中工作的本质来突破这一基础。原创 2024-06-06 01:20:19 · 848 阅读 · 0 评论 -
5 种技术,可用于系统中的大数据模型
以下是本文重要观点的摘要。阅读它以获取更多详细信息/获取原始源链接。很多 AI 人都想构建像 GPT 4 这样的大型 AI 模型。让我们来谈谈一些技术,这些技术可以让您在不崩溃的情况下扩展您的模型。这些技术将使您能够扩展 AI 模型,在不显着增加成本的情况下提高系统的表达能力原创 2024-06-05 10:32:24 · 1045 阅读 · 1 评论 -
Amazon 如何让机器学习变得值得信赖
机器 学习最近风靡全球。由于所有惊人的结果,公司一直在争先恐后地将数据驱动的决策纳入其流程。鉴于 DALLE、StableDiffusion 和现在的 ChatGPT 的所有精彩演示,越来越多的人开始意识到 AI 的潜力。然而,有些人一直担心这些模型可能造成的伤害。最近,ChatGPT引起了一些关注,因为用户发现它可以产生一些辛辣的输出。看看 ChatGPT 如何根据他们的种族和性别来识别优秀的科学家。原创 2024-06-04 14:39:26 · 1398 阅读 · 0 评论 -
图神经网络(GNN)在生产过程优化中的应用介绍
图神经网络 (GNN) 是神经网络的一个高级子集,适用于图结构中的数据。在制造过程中,这些网络可用于通过表示和分析生产系统中的复杂关系和依赖关系来优化操作。本文旨在阐明GNN在优化制造过程中的应用,重点是制造系统建模、过程模拟和优化生产计划。原创 2024-06-03 15:35:14 · 742 阅读 · 0 评论 -
如何使用 DANN 改进神经网络
由于其多功能性,神经网络是大多数现代机器学习管道的主要内容。他们处理非结构化数据的能力是一种祝福,因为它让我们能够部分地——部分地——在这里发挥重要作用——用计算规模(更便宜、更容易获得)取代领域洞察力(昂贵且难以获得)。原创 2024-06-03 01:04:17 · 1661 阅读 · 2 评论 -
语言模型的校准技术:增强概率评估
语言模型,尤其是大型语言模型 (LLM),凭借其理解和生成类人语言的能力,彻底改变了人工智能领域。这些模型不仅能够在零样本设置下或通过定制提示执行各种任务,而且它们的灵活性和多样性也使它们在多个领域中非常有用。原创 2024-06-02 22:19:25 · 966 阅读 · 1 评论 -
通过非欧几何体改变 AI 嵌入
这是一篇大咖的论文阅读,是Apple 首席工程师Manny Ko分享的精彩论文。这篇文章很大程度上是许多有趣的对话和来回的综合。对于LLM之所以引进复数嵌入,以及如何嵌入有清晰全面的理解,堪称里程碑式的作品。原创 2024-06-02 22:01:42 · 1529 阅读 · 0 评论 -
通过强化学习彻底改变大型数据集特征选择
了解强化学习如何改变机器学习模型的特征选择。通过实际示例和专用的 Python 库了解这种创新方法的过程、实现和好处。原创 2024-05-31 14:00:40 · 1449 阅读 · 2 评论 -
Q-Learning 简介:初学者教程(1)
强化学习强调无模型学习算法,因此出现Q-Learning,Q-Learning算法酷似“有限状态自动机”模型,只是增加了奖励机制和Agent机制,而Agent与粒子群算法、蒙特卡洛算法是有关的。本文介绍这个算法框架。原创 2024-05-30 09:00:17 · 1385 阅读 · 0 评论 -
构建 Terraform 模块的分步指南
在快速发展的云计算环境中,高效管理和配置基础设施的能力比以往任何时候都更加重要。HashiCorp 的 Terraform 已成为该领域的游戏规则改变者,它提供了一种基于声明式代码的基础设施管理方法,也称为“基础设施即代码”(IaC)。通过将基础架构编入版本控制配置,Terraform 使开发人员和运营团队能够以无与伦比的精度自动化、重用和管理基础架构。原创 2024-05-29 10:17:54 · 919 阅读 · 0 评论 -
强化学习,第 2 部分:政策评估和改进
R强化学习是机器学习中的一个领域,它引入了必须在复杂环境中学习最优策略的智能体的概念。智能体从其行为中学习,这些行为在给定环境状态的情况下产生奖励。强化学习是一个困难的话题,与机器学习的其他领域有很大不同。这就是为什么只有当给定的问题无法解决时才应该使用它。原创 2024-05-27 12:30:57 · 791 阅读 · 0 评论 -
强化学习,第 3 部分:蒙特卡罗方法
强化学习是机器学习中的一个领域,它引入了必须在复杂环境中学习最优策略的智能体的概念。智能体从其行为中学习,这些行为在给定环境状态的情况下产生奖励。强化学习是一个困难的话题,与机器学习的其他领域有很大不同。这就是为什么只有当给定的问题无法解决时才应该使用它。原创 2024-05-27 10:08:15 · 859 阅读 · 0 评论 -
“从根到叶:使用决策树导航数据”
决策树可能不是什么新鲜东西,但是它的作用有两个:分类型、回归型。分别以熵和均方差作为分支判别的依据,本篇将对比其细节。原创 2024-05-25 05:10:22 · 821 阅读 · 0 评论 -
【机器学习高级】强化学习综述
强化学习是一种强大的方法,可以帮助人工智能 (AI) 系统在看不见的环境中实现最佳结果。他们从每个行动的反馈中学习,并自我发现实现最终结果的最佳处理路径。该算法还能够延迟满足。最好的整体策略可能需要短期的牺牲,因此他们发现的最佳方法可能包括一些惩罚或一路回溯。原创 2024-05-23 00:47:41 · 1575 阅读 · 0 评论 -
CoShNet:使用复数改进神经网络
本文题为“CoShNet:使用Shearlets的混合复杂值神经网络”,提出了在混合神经网络中使用复杂函数的方法。如果你对这些话感到非常困惑,在本文中,我将解释混合神经网络的概念,以及如何使用它们来改进传统的卷积神经网络。然后,我们将介绍如何使用复杂函数来进一步提高这些模型的性能。这将是一个非常有趣的过程。原创 2024-05-23 00:51:36 · 1126 阅读 · 0 评论 -
【统计学精要】:使用 Python 实现的统计检验— 1/10
欢迎来到“掌握 Python 统计测试:综合指南”,它将介绍本手册中您需要熟悉使用 Python 的所有基本统计测试和分析方法。本文将为您提供统计测试及其应用的全面介绍,无论您是新手还是经验丰富的数据科学家。原创 2023-08-06 17:39:18 · 2861 阅读 · 3 评论 -
【信息熵理论-01】最大熵的分布
我觉得用最大熵来获取概率分布的方法很给力。您采用一些已知或约束,然后在这些条件下最大化信息熵,瞧!你有一个独特的概率分布。很酷的是,这些最大熵分布非常常见,因此这是一种重新推导我们日常遇到的许多分布的巧妙方法。对我来说,仅此一点就值得付出代价。但从信息论的角度来看,这些将是偏差最小的先验分布(我们最大化我们的无知),因此随后的贝叶斯定理实验将 最大化获得的信息。此外,自然界中发现的许多物理模式都倾向于最大熵概率分布。因此,即使作为理解世界的一种方式,最大熵也是一个非常有用且深入的工具。原创 2024-05-07 14:34:16 · 1059 阅读 · 0 评论 -
【统计推断】-01 抽样原理之(六):三个示例
对于抽样问题,前几期文章都是理论探讨。本篇给出若干示例,展现具体的情况下,面对数据,如何给出处理策略。原创 2024-05-06 15:48:52 · 1281 阅读 · 3 评论 -
在 OpenGL 4 中替换 glMatrixMode()?
OpenGL 版本 3.x和OpenGL 版本 4.x的版本有很大不同,在OpenGL 版本 3.x中使用的glMatrixMode在OpenGL 版本 4.x已经弃用,那么如何实现原glMatrixMode实现功能呢?是使用统一变量完成的。本篇将讨论如何在OpenGL 版本 4.x中替换OpenGL 版本 3.x中glMatrixMode的功能。原创 2024-05-03 13:29:18 · 1081 阅读 · 0 评论 -
Transformers:它们如何转换您的数据?
在快速发展的人工智能和机器学习领域,一项创新因其对我们处理、理解和生成数据的方式产生深远影响而脱颖而出:Transformers。Transformer 彻底改变了自然语言处理 (NLP) 及其他领域,为当今一些最先进的 AI 应用程序提供动力。但究竟什么是变形金刚,它们如何以如此开创性的方式转换数据?本文揭开了 Transformer 模型内部工作的神秘面纱,重点介绍了编码器架构。我们将首先在 Python 中实现 Transformer 编码器,分解其主要组件。然后,我们将可视化 Transfor原创 2024-05-01 13:33:50 · 1346 阅读 · 1 评论 -
RNN 及其变体的数学理解
专家预计人工智能(AI)将致力于创造更美好的生活。他们表示,随着未来将提供更多的计算能力,即更多的图形处理单元,人工智能将为人类带来更多进步和生产力。这篇特别的文章讨论了 RNN、它的变体(LSTM、GRU)及其背后的数学。原创 2024-05-01 01:22:45 · 1416 阅读 · 3 评论 -
【统计推断】-01 抽样原理之(四):中心极限定律
大数定律和中心极限定律无疑是抽样理论最重要的理论支持。注意这两个定律是以公理形式出现,因此不要试图证明。有种种案例可以强化对这两个公理的理解。本篇将叙述两个公理意义,合理性,约束条件。从直观上加强对这个理论的理解。原创 2024-04-30 15:06:41 · 868 阅读 · 0 评论 -
【数学视野】Softmax 函数和 Gibbs 分布之间的数学桥梁
函数是各种神经网络中的基本元素,尤其是那些为分类任务而设计的神经网络。它有效地将实值分数 (logits) 的向量从神经网络的最终线性输出转换为概率分布。softmax 输出的每个组件都表示输入属于特定类的概率。原创 2024-04-30 12:02:05 · 710 阅读 · 0 评论 -
【数学视野】高斯分布
正态分布,通常被称为高斯分布,由于其基本的数学性质和在各个科学领域的适用性,在统计学中至关重要。这篇博文对正态分布进行了深入的探索,并丰富了数学方程来解释其发展、性质和应用。另外,你有没有停下来想一想,为什么高斯分布是唯一使熵最大化的指数方程?原创 2024-04-30 01:24:05 · 981 阅读 · 0 评论