![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 78
DeepGoAI
欢迎学习交流!
展开
-
Stable Diffusion 3来啦:AI画画大跃进,预览版等你体验!
各位创意达人,握紧你的画笔(咳咳,键盘),因为Stable Diffusion 3的预览版正在向我们招手!这不仅仅是一个更新,这是一次革命,带着更高级的多主题理解、更清晰的图像质量和更聪明的文字拼写能力,我们的AI小伙伴学会了更多花样。它的推出体现了我们的初衷:让每个人都能用上高大上的AI工具。当然,对于可能的审查和开放性问题,大家也有自己的看法。那些急不可待想要尝鲜的朋友,别急,Stability AI已经准备了自托管服务和开发者平台API,等正式版发布前你就可以先玩起来。当然也已经是非常大的进步了。原创 2024-02-24 00:19:17 · 361 阅读 · 1 评论 -
AnyText: 多语言视觉文本生成与编辑
通过结合辅助潜在模块和文本嵌入模块,AnyText 能够在多种语言环境下生成清晰、准确的文本,并且可以轻松地集成到现有的扩散模型中,以提高文本的渲染和编辑质量。AnyText 通过一个包含辅助潜在模块和文本嵌入模块的扩散流程实现文本的生成或编辑,可以在图像中无缝整合文本,支持多种语言,是首个针对多语言视觉文本生成的工作。:结合潜在特征和文本嵌入,通过文本控制扩散管道生成或编辑图像中的文本,确保文本与图像背景的自然融合。这里展示了更多编辑的效果,在不规整的掩码下,依然可以做到毫无违和感的编辑效果。原创 2024-02-20 06:48:17 · 959 阅读 · 0 评论 -
三分钟教你如何把不要钱的ChatGPT3.5用出花钱4.0的效果!
三分钟教你如何把不要钱的ChatGPT3.5用出花钱4.0的效果!原创 2024-02-14 00:43:05 · 546 阅读 · 0 评论 -
论文介绍 FreeControl: 无需额外训练实现文本到图像的空间操控!
分析阶段和合成阶段。分析阶段:通过对种子图像的扩散特征进行主成分分析(PCA),形成时间依赖的基BtB_tBt,作为语义结构表示。合成阶段:结构引导帮助在引导图像IgI_gIg的指导下构建输出图像III的结构模板,而外观引导从相同种子生成的兄弟图像Iˉ\bar{I}Iˉ中借用外观细节。FreeControl支持多种控制条件、模型架构和自定义模型文件,能够处理大多数现有无训练方法失败的挑战性输入条件,并且与基于训练的方法相比,实现了竞争性的合成质量。转载 2024-02-13 01:03:01 · 108 阅读 · 0 评论 -
论文解读 One-step Diffusion with Distribution Matching Distillation
本文介绍了一种名为分布匹配蒸馏(DMD)的新技术,旨在加速扩散模型的图像生成过程,同时保持高质量的输出。DMD通过将扩散模型转化为一步生成模型,极大地提高了生成速度,达到了实时生成的目标。通过最小化真实与生成分布间的KL散度和引入回归损失,DMD能够在加速生成的同时,保证图像的多样性和质量。转载 2024-02-12 00:04:48 · 367 阅读 · 0 评论 -
论文介绍 VolumeDiffusion: Flexible Text-to-3D Generation with Efficient Volumetric Encoder
本文介绍了一种从文本提示高效且灵活生成3D对象的新方法。通过采用轻量级网络从多视图图像获取特征体积,证明了这种方法能够有效扩大扩散模型训练所需的训练数据规模。转载 2024-02-10 23:50:51 · 43 阅读 · 0 评论 -
生成对抗网络 Generative Adversarial Nets(GAN)详解
生成对抗网络 Generative Adversarial Nets(GAN)详解近几年的很多算法创新,尤其是生成方面的task,很大一部分的文章都是结合GAN来完成的,比如,图像生成、图像修复、风格迁移等等。今天主要聊一聊GAN的原理和推导。github: http://www.github.com/goodfeli/adversarial论文: https://arxiv.org/abs/1406.2661背景介绍在GAN算法出来之前,关于生成的task表现一直都不太好,因为之前的方法由于在最原创 2022-01-30 21:54:36 · 2854 阅读 · 0 评论 -
Evolutionary algorithm (遗传算法)介绍
Evolutionary algorithm (遗传算法)介绍Evolutionary algorithm 遗传算法, 实际上也是机器学习里面一个很重要的分支。为什么呢,因为他在之前几十年也是和深度学习一样非常火热流行。现在也有很多人在利用遗传算法做相关研究,还是比较流行的算法之一。Evolutionary algorithm 算法是受到自然界的一些启发,通过种群优化去解决一些相关的任务,比如做数独,解决一些实际的规划问题,组合优化问题。这里 附上一个非常好玩的链接: 小摩托车 这个demo就是不断地原创 2021-12-10 09:56:48 · 2653 阅读 · 0 评论 -
强化学习On-policy vs Off-policy
强化学习On-policy vs Off-policy这里我们讲讲强化学习中on-policy和off-policy的区别。实际上这个区别非常简单,就是说如果算法在更新它的policy的时候,它是依赖于前面的Q value function的话,那么它就是on-policy的。反之如果它是依赖于随机的一个输入或者人为的操控,那么它就是一个off policy的。具体来说就是由于在算法更新我们value fcuntion 的时候,实际上我们就是基于这个现有的policy去更新这个value的functi原创 2021-12-10 08:30:11 · 712 阅读 · 0 评论 -
基于Monte Carlo 的策略评估
基于Monte Carlo 的策略评估在强化学习中,Monte Carlo 是一种被广泛用到的方法。这种方法主要是从经验 experience 中拟合数值,本质上就是从不同的采样中获得结果,然后将其平均。由于最后当采样的数量达到一定的数量级后,这种方法可以很好地拟合我们想要的函数。这里有一个很有意思的demo,展现的是Monte Carlo 如何应用在评估 π\piπ 的数值上。https://academo.org/demos/estimating-pi-monte-carlo/如上图所示,如果原创 2021-12-08 23:11:02 · 2699 阅读 · 0 评论 -
证明逻辑回归的目标函数是凸函数
证明逻辑回归的目标函数是凸函数参考:https://zhuanlan.zhihu.com/p/76639936本文写法有部分不同假设有训练数据D={(x1,y1),...,(xn,yn)}D=\{(\mathbf{x}_1,y_1),...,(\mathbf{x}_n,y_n)\}D={(x1,y1),...,(xn,yn)}, 其中(xi,yi)(\mathbf{x}_i,y_i)(xi,yi)为每一个样本,而且xi\mathbf{x}_ixi是样本的特征并且xi∈RD\mathbf{原创 2021-02-23 12:42:07 · 1316 阅读 · 10 评论 -
K-means(K均值聚类算法)算法笔记
K-means(K均值聚类算法)算法笔记K-means 算法,是比较简单的无监督的算法,通过设定好初始的类别k,然后不断循环迭代,将给定的数据自动分为K个类别。事实上,大家都知道K-means是怎么算的,但实际上,它是GMM(高斯混合模型)的一个特例,其而GMM是基于EM算法得来的,所以本文,将对K-means 算法的算法思想进行分析。算法流程K-means 算法的算法流程非常简单,可...原创 2020-03-23 15:08:37 · 1135 阅读 · 0 评论 -
EM算法笔记
EM算法分析与详解原创 2020-03-22 12:23:42 · 366 阅读 · 0 评论 -
隐马尔可夫模型HMM模型笔记1--前向后向算法
隐马尔可夫模型HMM模型细节和推导1.概述隐马尔可夫模型(Hidden Markov Model,HMM) 是传统的机器学习模型,在自然语言处理和模式识别中,运用广泛。虽然有RNN和LSTM的提出,作为机器学习的传统模型,还是有必要深入了解。HMM模型中,包含两种序列,分别为状态序列和观测序列。其中状态序列我们不可见,而观测序列可见,并且观测序列以概率的形式,由状态序列生成。比如语音识...原创 2020-03-28 10:34:47 · 842 阅读 · 0 评论 -
Pixel Recurrent Neural Networks 和 autoregressive models 自回归模型
Pixel Recurrent Neural Networkspixel rnn 是 生成模型的一种,基于autoregressive models。他的思想很简单,就是最大似然估计的方式去拟合图像数据。将二维的图像数据比作序列数据,以条件概率的方式,逐点预测和计算。并且每个像素点的预测都在(0-255)之间,(单通道情况下)如下图1所示:图1,autoregressive model...原创 2020-03-16 21:14:37 · 769 阅读 · 0 评论 -
卷积神经网络感受野计算
卷积神经网络感受野计算我们平时计算感受野时,只需要直接利用这个公式就行j 表示跨度大小r 表示感受野可以直接根据上图进行计算,正常的输入图 为第0层所以 j0 = 1 r0=1 ,然后我们再放到下一层,j1 = j0 *strider1 = r0 +(kernel - 1)*j0参考:https://zhuanlan.zhihu.com/p/26...转载 2019-03-31 09:15:16 · 347 阅读 · 0 评论 -
卷积神经网络-全面图解-带你了解前向后向传播的所有细节(文末代码)
卷积神经网络-全面图解-带你了解前向后向传播的所有细节综述本文将会从基础的前馈神经网络入手,通过bp神经网络,引出卷积神经网络,并把专门的重点放在如何理解和实现卷积神经网络的卷积层、下采样层、全连接层、以及最终的softmax的反向传播的理解。最后实现基于python的车标识别6分类网络(代码:实现了卷积、全连接、下采样等等前向、反向传播,将6类车标作为输入进行模型训练,不过是CPU...原创 2018-12-06 12:23:02 · 1756 阅读 · 0 评论 -
windows 下 non-stationary_texture_syn_master 问题与解决
ubuntu 下non-stationary_texture_syn_master 跑这个项目是完全没问题的,主要在于window下一对问题1.一开始就跑不通 解决: 在 train 中添加以上代码块2.在训练的过程中内存outofmemory找到原因了,保存新生成的图像的时候,会占用GPU缓存,结果就不够用了,用torch.cuda.empty_cache(...原创 2019-01-05 16:58:13 · 242 阅读 · 6 评论 -
百面机器学习-特征归一化
P0021.为什么要对数值做特征归一化?1.为了消除数据特征之间的量纲的影响.2.常用的方法有哪些:1.线性函数归一化2.零均值归一化3.常用情况1.通过梯度下降法求解的模型通常是需要归一化的,如线性回归,支持向量机,神经网络等.2.决策树模型并不适用,因为归一化并不会改变样本在特征上的信息增益. ...原创 2018-11-25 11:19:29 · 163 阅读 · 0 评论 -
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks源码链接:https://github.com/junyanz/pytorch-CycleGAN-and-pix2pix论文链接:源码链接里有1.创新针对非成对的数据集,提出了一种通用型的image-to-image 的训练模...翻译 2018-12-18 15:55:33 · 850 阅读 · 0 评论 -
Image-to-Image Translation with Conditional Adversarial Networks
Image-to-Image Translation with Conditional Adversarial Networks论文主要内容:1.提出了一种对于gan的理解对于很多任务,我们都需要自己设计目标函数,来使得网络达到我们想要的任务和目的。而gan网络的出现,使得我们无需再手工设计我们的目标函数,而是利用gan网络来通过数据来“自动生成”我们想要的损失目标。文中提到,对于cn...原创 2018-12-13 12:41:43 · 272 阅读 · 0 评论 -
Non-Stationary Texture Synthesis by Adversarial Expansion
Non-Stationary Texture Synthesis by Adversarial Expansion1.主要创新点:利用Patch Gan,结合风格损失,L1损失,生成非固定纹理。2.对应损失的贡献:对抗损失作为纹理的主要生成 L1损失减少噪声和非自然的内容,但是太过平滑 风格损失使得图像最终加入更多细节,但是也加入了颜色的扭曲3.网络训练流程:------...原创 2018-11-28 16:29:32 · 960 阅读 · 0 评论 -
Auto-Encoding Variational Bayes(VAE)粗浅的理解
Auto-Encoding Variational Bayes(VAE)粗浅的理解VAE作为生成模型的一种,能够通过改变latent space 来生成和训练时不一样的样本。而这种能力,Auto-Encoder (AE)是做不到的,因为如果不对latent space 的生成进行约束,仅仅是对输出的结果进行约束。那么最终,对于不同的样本输入,得到的latent space 是完全不同的,...原创 2020-03-05 16:43:26 · 804 阅读 · 0 评论 -
bp神经网络(文末代码)
bp神经网络实现了一个包含四分类的全连接网络,其中包含relu、softmax的前向反向传播网络结构如上,对应的计算请参考代码:GitHub:https://github.com/LonglongaaaGo/bpnetwork实现理论细节请参考:https://blog.csdn.net/Willen_/article/details/84850782...原创 2019-05-23 19:47:19 · 190 阅读 · 0 评论 -
关于缺失值填充的方法
关于缺失值填充的方法转自:https://blog.csdn.net/lglfa/article/details/80566523背景很多数据不可避免的会遗失掉,或者采集的时候采集对象不愿意透露,这就造成了很多NaN(Not a Number)的出现。这些NaN会造成大部分模型运行出错,所以对NaN的处理很有必要。方法1、简单粗暴地去掉有如下dataframe,先用df.i...转载 2019-05-07 09:06:30 · 2557 阅读 · 0 评论 -
机器学习LDA线性判别器代码实现
机器学习LDA线性判别器代码实现西瓜书P60 线性判别器LDA代码实现:import numpy as npimport matplotlib.pyplot as pltdef load_data(file_name): ''' 数据导入函数 :param file_name: (string)训练数据位置 :return: feature_data(...原创 2019-04-13 20:30:21 · 1112 阅读 · 0 评论 -
对数几率logistics回归-数据集+代码实现
对数几率logistics回归-数据集+代码实现对于公式的推导,详情见以下内容,接下来我们实现一下对数几率回归的实现https://blog.csdn.net/Willen_/article/details/88867986对应的实现都有注释import numpy as npimport h5pydef load_data(file_name): ''' 数...原创 2019-04-12 22:40:21 · 1465 阅读 · 0 评论 -
西瓜书对数几率回归公式推导
西瓜书对数几率回归公式推导周志华西瓜书3.3、P59公式推导对于前面这里最好需要对最小二乘法有一定的了解:https://blog.csdn.net/Willen_/article/details/88867735这里,我们直接给出了对数极大似然入籍,你再翻看一下书59页,你会发现其实3.26公式其实是有问题的,他少了对应的取对数而实际的公式应该是下图中的求和里面的公式:...原创 2019-03-28 15:10:10 · 1389 阅读 · 0 评论 -
西瓜书线性回归和最小二乘法公式推导
线性回归和最小二乘法周志华西瓜书3.2、P55公式推导公式推导如下对应的需要有些矩阵求导的公式:其中我们约定,大写字母表示矩阵,小写字母表示标量,小写字母加粗表示向量,大部分书中都是这么约定,不过也要视情况而定。如果对公式产生疑惑也不要紧,可以看看这里的链接https://blog.csdn.net/Willen_/article/details/879...原创 2019-03-28 14:07:54 · 828 阅读 · 0 评论