![](https://img-blog.csdnimg.cn/20190918140129601.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习/AIGC
文章平均质量分 57
深度学习/AIGC相关内容
鬼马行天
C++,图形学,UnrealEngine,Qt,GIS,AI
涉猎良多,学艺不精
展开
-
Neural Radiance Fields (NeRF) 和 3D Gaussian Splatting区别
和是两种用于3D场景重建和渲染的技术。它们都旨在创建高质量的3D图像,但它们的技术原理和应用场景有所不同。原创 2024-04-18 16:51:48 · 1159 阅读 · 0 评论 -
3D Gaussian Splatting技术原理
是一种用于体积渲染的技术,特别适用于科学和医学可视化。这种技术使得用户能够以一种直观的方式查看和分析三维数据集,如医学成像数据(MRI、CT扫描)或科学模拟数据。原创 2024-04-18 16:47:44 · 473 阅读 · 0 评论 -
NLP——序列文本信息处理
通过上述步骤,序列文本信息不仅被转化为适合机器学习模型处理的形式,而且其内在的序列结构和语言特性也被有效地捕捉和保留。这些处理后的序列文本数据可以用于训练各种NLP模型,以完成诸如文本分类、情感分析、机器翻译、问答系统、语音识别后处理等各类任务。序列文本信息处理是指对那些具有明确词序或结构顺序(如句子、段落、篇章等)的文本数据进行专门的分析和转换,以保留并利用其内在的时序或逻辑关系。原创 2024-04-18 16:18:59 · 823 阅读 · 0 评论 -
Nerf技术原理
Neural Radiance Fields (NeRF) 中的多层感知机(MLP)是核心组件,用于从给定的3D坐标和视线方向预测场景中该点的颜色和体积密度。NeRF的MLP通常是相对简单的全连接网络架构,其设计旨在通过连续函数对3D场景进行编码。这一技术基于深度学习,通过训练一个神经网络来模拟场景的体积密度和颜色分布,实现在新的视角下渲染出高质量的3D图像。NeRF的核心在于使用一个全连接的神经网络(通常是多层感知机,MLP)来表示一个连续的体积场,这个体积场可以对每个空间位置的颜色和密度进行编码。原创 2024-04-18 16:07:58 · 277 阅读 · 0 评论 -
NLP 文本表征方式
综上所述,文本在NLP中可以通过多种方式进行表征,从简单的离散表示(如One-hot编码)到复杂的分布式表示(如词向量、上下文相关的词向量),再到基于统计和概率模型的主题表示。TF-IDF:给每个词赋予一个权值,该权值结合了词在文档中的出现频率(Term Frequency, TF)和在整个语料库中的逆文档频率(Inverse Document Frequency, IDF),以突出文档中具有代表性的词语。FastText:在词向量的基础上,考虑了子词信息,特别适用于处理形态丰富的语言或未见词汇。原创 2024-04-18 15:53:00 · 425 阅读 · 0 评论 -
神经网络中正则化和正则化率的含义
正则化通过在损失函数中添加一个额外的项来惩罚模型的复杂度,从而鼓励模型学习更加简单、更加泛化的特征。正则化率(Regularization Rate),也称为正则化参数或权重衰减,是正则化项前的系数,用于控制正则化项的强度。因此,正则化率的选择通常需要通过交叉验证等技术来进行调整,以便找到最佳的模型复杂度和泛化能力之间的平衡。如果正则化率过小,模型可能会过于复杂,导致过拟合,即模型在训练集上的误差很小,但在新数据上的误差较大。如果正则化率过大,模型可能会过于简单,导致欠拟合,即模型在训练集上的误差也较大。原创 2024-04-18 11:10:46 · 369 阅读 · 0 评论 -
通俗解释卷积神经网络(CNN)或循环神经网络(RNN)的技术原理
当你听到新的句子或单词时,你的大脑会更新它的记忆,并将这个记忆用于理解接下来的内容。这就像是CNN中的卷积层,它使用一系列的“过滤器”(或称为“核”)来识别图像中的局部特征,比如边缘、颜色和纹理。CNN中的池化层就是做这个工作的,它减小数据的空间大小,但保留最重要的特征。长期和短期记忆:有时,你需要记住故事中的某些关键情节(长期记忆),同时也要注意最近发生的事情(短期记忆)。CNN 是一种特别适合处理图像数据的神经网络,它通过卷积层来识别图像的局部特征,并通过池化层和全连接层来进行分类或回归任务。原创 2024-04-18 11:07:09 · 661 阅读 · 4 评论