AGI
文章平均质量分 76
大江东去浪淘尽千古风流人物
主要研究方向:XR SLAM 三维重建 欢迎讨论&&交流
展开
-
【AGI】大模型 深度学习入门学习路径
48]. 全面总结 Python 机器学习、深度学习库 (含使用示例,按需使用,快速开启人工智能的大门) - 知乎。[6]. llm-course,狂飙13.5K Star,GitHub上最全的开源大模型教程 - 知乎。- bilibili。[69]. MoE(Mixture-of-Experts)架构的大模型具体怎么训练?[30]. 2023年的深度学习入门指南(6) - 在你的电脑上运行大模型 - 稀土掘金。[66]. 万字长文详解 MoE - 超越ChatGPT的开源混合专家模型 - 知乎。原创 2024-03-05 16:49:58 · 733 阅读 · 0 评论 -
【GAI】红杉美国生成式AI:一个创造性的新世界
生成式AI与更广泛的AI有着相同的“为什么是现在(Why now)”的原因:更好的模型,更多的数据,更多的算力。这个类别的变化速度比我们所能捕捉到的要快,但我们有必要在大背景下回顾一下最近的历史。第1波浪潮:小模型(small models)占主导地位(2015年前),小模型在理解语言方面被认为是“最先进的”。这些小模型擅长于分析任务,可以用于从交货时间预测到欺诈分类等工作。但是,对于通用生成任务,它们的表达能力不够。生成人类级别的写作或代码仍然是一个白日梦。原创 2023-06-17 15:42:22 · 1038 阅读 · 0 评论 -
【AIGC】ChatGLM2-6B大模型 据称推理性能超越Chat4.0
ChatGLM2-6B 使用了 GLM 的混合目标函数,经过了 1.4T 中英标识符的预训练与人类偏好对齐训练,评测结果显示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。尽管模型在训练的各个阶段都尽力确保数据的合规性和准确性,但由于 ChatGLM2-6B 模型规模较小,且模型受概率随机性因素影响,无法保证输出内容的准确性,且模型易被误导。原创 2023-06-27 22:01:43 · 317 阅读 · 0 评论 -
【AIGC】baichuan-7B大模型
百川智能发布的开源中英文大模型baichuan-7B是一个基于GPT-3.5架构的预训练语言模型,拥有70亿个参数,是目前全球最大的中英文混合预训练语言模型之一。我们分析了不同分词器对语料的压缩率,如下表,可见我们的分词器明显优于 LLaMA, Falcon 等开源模型,并且对比其他中文分词器在压缩率相当的情况下,训练和推理效率更高。对于数学领域,我们参考了 LLaMA 和 Galactica 中的方案,对数字的每一位单独分开,避免出现数字不一致的问题,对于提升数学能力有重要帮助。原创 2023-06-17 14:14:07 · 1562 阅读 · 0 评论 -
【AI】Auto-GPT:当时代抛弃你的时候,不会和你说一声再见!
当时代抛弃你的时候,不会和你说一声再见!原创 2023-04-16 20:19:02 · 115 阅读 · 0 评论 -
【AGI】世界首次实现室温超导LK-99
one world:由于铜离子比铅例子小,导致晶格体积收缩,产生应力,形成库伯对,从而形成超导。传统的超导温度第,热运动会破坏库伯对,库伯对是2电子形成的通过晶格的相互作用交互生子等效形成一个引力,电子被捆绑在一起,两个费米子绑定在一起,就是一个玻色子,玻色子可以爱因斯坦凝聚,形成超流,电子形成的潮流还没有摩擦,就是超导了!!!原创 2023-08-02 10:09:20 · 407 阅读 · 0 评论 -
【AGI】Copilot AI编程辅助工具安装教程
但是,Copilot目前不提供公开使用,需要注册账号通过审核,我也提交了申请:这里第一期记录下,开启教程,欢迎大佬们来讨论交流。GitHub和OpenAI联合为程序员们送上了编程神器——GitHub Copilot。原创 2023-07-27 22:26:10 · 2137 阅读 · 0 评论