![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
AI人工智能
文章平均质量分 92
DATA无界
IBM服务器工程师、系统架构师,Oracle OCM,MySQL OCP,CCNA
展开
-
高等教育的AI革新:OpenAI面向大学推出ChatGPT Edu
ChatGPT Edu的引入将进一步推动大学教育向智能化、个性化和创新化方向发展.它不仅是一种工具,更是一种思维方式和教育理念的体现,将有助于打破传统教育的局限性,促进学生、教师和研究人员之间的更加紧密的合作和交流。原创 2024-05-31 11:31:28 · 1546 阅读 · 0 评论 -
Oracle Database 23ai 下载安装体验之旅,居然遇到了小 Bug!
2024年5月3日凌晨,Oracle 正式发布了其最新长期支持版本 Oracle Database 23ai,今天我们来说说,Oracle Database 23ai 如何下载?安装?体验?原创 2024-05-11 14:54:41 · 1077 阅读 · 0 评论 -
Oracle 23ai 发布,国产数据库们都沉默了
几天前,全球最大的数据库软件公司 Oracle 发布了最新版的 Oracle Database 23ai ,集成了最新的 AI Vector Search(AI 向量搜索引擎),允许根据概念内容轻松搜索存储在任务关键型数据库中的文档、图像和关系数据,为企业数据和应用程序开发带来 AI 科技赋能。原创 2024-05-06 10:19:59 · 1086 阅读 · 2 评论 -
AI学习笔记之八:从马斯克开源的Grok模型看什么是混合专家模型 (MoE)
混合专家模型的核心思想是通过结合多个专家系统的意见和决策,以及灵活的门控机制,来构建一个更加强大和灵活的模型,从而提高模型在复杂任务上的表现。原创 2024-04-01 20:26:26 · 1017 阅读 · 0 评论 -
AI学习笔记之七:探秘无监督学习的原理、常用算法及实现解析
无监督学习算法更贴近人类自主学习的方式,使得无监督学习在许多应用场景都有独特的优势,这种方法能够发现信息的相似性和差异性,因而是探索性数据分析、交叉销售策略、客户细分和图像识别的理想解决方案。原创 2024-03-20 20:16:46 · 2371 阅读 · 0 评论 -
AI学习笔记之六:无监督学习如何帮助人类挖掘数据金矿和防范网络欺诈
无监督学习赋予了人工智能一种"自主探索"的能力,使其能够在面对未知领域或者新的数据时,仍然能够做出有意义的学习和推理。这种超能力为人工智能的发展开辟了全新的可能性,使得它能够更加自主地进行学习和决策,从而更好地服务于人类社会的各个领域。原创 2024-03-15 18:27:25 · 961 阅读 · 0 评论 -
近万字长文详解Sora技术报告:Sora为什么这么牛?
简单来说,当 Sora 训练的数据量足够大时,它也展现出了一种类似于涌现的能力,从而使得视频生成模型具备了类似于物理世界通用模拟器的潜力。这意味着AI模型通过海量的大数据可以学习到物体之间的相互作用、运动规律。原创 2024-02-19 23:22:48 · 1450 阅读 · 0 评论 -
AI大模型学习笔记之五:监督学习--数据如何驱动决策
监督学习,又称为监督式机器学习,是机器学习和人工智能领域的一个重要分支。基本原理是利用带有标签的数据集来训练算法,以实现精确分类数据或预测结果的目标。监督学习技术可应用于解决各种现实世界的问题,比如将垃圾邮件分类至收件箱的特定文件夹中。原创 2024-02-15 14:48:26 · 894 阅读 · 0 评论 -
AI大模型学习笔记之四:生成式人工智能(AIGC)是如何工作的?
生成式人工智能(AIGC)究竟是怎么运作的呢?在这篇文章里,我们就来简单了解一下生成式人工智能技术(AIGC)的基本原理,看看它到底能做些什么,还有啥时候你可能不太想依赖它。原创 2024-02-11 12:01:11 · 1830 阅读 · 0 评论 -
AI大语言模型学习笔记之三:协同深度学习的黑魔法 - GPU与Transformer模型
GPU在Transformer 大模型中的协同计算处理任务中功不可没,其在架构和功能设计中体现出的强大的并行计算、流式处理和多头注意力的优势,堪称黑魔法,为AI 大模型的深度学习任务提供了强大的堪称黑魔法般的加持。原创 2024-01-29 01:02:31 · 1348 阅读 · 0 评论 -
AI大模型学习笔记之二:什么是 AI 大模型的训练和推理?
在人工智能(AI)的领域中,我们经常听到训练(Training)和推理(Inference)这两个词汇,它们是构建强大 AI 模型的关键步骤。我们通过类比人类的学习过程来理解这两个概念,可以更加自然而生动地理解AI大模型的运作原理。原创 2024-01-17 23:03:29 · 7339 阅读 · 1 评论 -
AI大语言模型学习笔记之一:大型语言模型(LLMs)概览
LLMs基于的Transformer架构是一种深度神经网络架构,于2017年由Vaswani等人在他们的论文“Attention is All You Need”中首次提出。自那以后,它已成为大型语言模型(如BERT和GPT)最常用的架构。Transformer架构使用注意力机制来解析输入的序列,例如句子或段落,专门用于自然语言处理(NLP)应用。与传统的循环神经网络(RNN)不同,Transformer引入的自注意力机制允许模型在处理输入序列时,同时考虑序列中的所有位置。原创 2024-01-14 09:02:20 · 1483 阅读 · 0 评论