
AI
文章平均质量分 88
修炼十万年的狗尾巴草
这个作者很懒,什么都没留下…
展开
-
AI-算力集群通往AGI
具体来说,GPT-4的训练算力约2e25 FLOP,近期发布的几个大模型比如Google的Gemini Ultra、Nvidia Nemotron 340B、以及Meta Llama3 405B背后使用的训练算力大致与GPT-4相当,没有质的提升,因此无法解锁模型的新能力。为了避免缴纳巨额的Nvidia Tax,越来越多的Hyperscaler开始选择博通的Tomahawk 5来搭建自己的超级AI集群,而非Nvidia的Spectrum-X,未来博通的网络收入或将继续飙升。原创 2024-07-03 13:38:10 · 887 阅读 · 0 评论 -
AI-人工智能指数报告(四):科学、医学与教育
本章探讨了人工智能与计算机科学(CS)教育的趋势,主要关注的是谁在学、在哪儿学,以及趋势变化情况。在大家对人工智能对教育的影响日益担忧的背景下,本章还调查了教师和学生使用 ChatGPT 等新型人工智能工具的情况。分析利用了计算研究协会(Computing Research Association)每年进行一次的 Taulbee 调查数据。原创 2024-06-24 09:12:48 · 855 阅读 · 0 评论 -
AI-算力产业链之存力
随着智能世界的到来,数据量正在以惊人的速度增长,预计到2030年,全球数据将进入YB时代。有数据的地方就需要数据存储,如何将数据进行妥善、安全地存储,就显得尤为重要,有赖于数据存储的综合能力,即数据存力。计算存储能力的容量,采用单位GDP存储容量来确保不同国家的可比性,即用数据存储空间容量除以GDP规模。每一万美元GDP对应的存力容量越高,表明该国的数据存力容量水平越高,该国数字经济在GDP中的渗透程度越高,能更好支撑经济社会高质量发展。原创 2024-06-24 00:00:00 · 890 阅读 · 0 评论 -
AI-从玻尔兹曼机到多模态大模型:Geoffrey Hinton的最新AI洞见
大型神经网络有超越训练数据的能力。原创 2024-06-19 09:31:59 · 1186 阅读 · 0 评论 -
AI-大模型与人脑
这么小块的人脑具备这么大容量,你说“human”这是大自然进化而来的,是不是让人觉得越来越不靠谱了,是不是像宇宙高阶生物所圈养的生物一样,类比于人类创造AI,如今是GPT-4,没准3年后、5年后大模型的参数数量最终可以堪比人脑,最终而引发质变。据此,有人根据人脑的体积推算,若要对整个人脑进行建模,会产生1.76ZB的数据,而目前最先进的超级计算机存储容量也才万分之七ZB,不足单个人脑单个状态的0.4%。同时,1立方毫米体积的脑组织中包含了5.7万细胞和1.5亿突触,而整个大脑中的突触数量更是高达千万亿。原创 2024-06-22 01:00:00 · 1641 阅读 · 0 评论 -
AI发展核心要素之一(存储、算例、大数据、电力、政策与资本)
AI发展核心要素之一浅说原创 2024-06-17 00:00:00 · 1213 阅读 · 0 评论 -
好用的大模型推荐
•简介:作为GPT系列的最新迭代,GPT-5继续在自然语言处理领域保持领先,以其强大的语言生成、理解和推理能力著称。•亮点:提供知识、语言、理解、推理和考试五个维度的能力评估,为技术创新和应用选择提供了客观参考。•简介:百度推出的通用大模型,具备广泛的中文语言理解和生成能力,已在国内多个应用场景落地。•简介:Claude系列的最新版本,以其高精度、严谨的输出和出色的多语言能力赢得赞誉。•简介:谷歌推出的高级大模型,集成了先进的NLP技术,适用于多种应用场景。原创 2024-06-14 10:33:13 · 933 阅读 · 0 评论 -
AI与企业,AI与工作
当碳基与硅基两种智慧碰撞,如何摸索出新的协作模式,以提升整体效率?如果人机协同的工作任务“搞砸”了,人类和AI之间又如何界定责任?数字经济时代,人的角色正在发生变化。当AI成为企业的新员工,人与AI的协同合作将逐渐成为生产过程中的常态。当碳基与硅基两种智慧碰撞,如何摸索出新的协作模式,以提升整体效率?原创 2024-06-14 09:22:45 · 1015 阅读 · 0 评论