贾扬清的Lepton:真把AI开发门槛打下来了?盘一盘大模型应用最新方向;大多数AI初创公司注定死去;神经网络与生成式AI;这就是ChatGPT(中文版下载)

img

🉑 贾扬清与他的Lepton AI:500行代码就能撸出 Perplexity?把AI开发门槛「打」下来

img

www.lepton.ai

2023年3月,阿里巴巴集团副总裁 贾扬清 宣布离职,创立 Lepton AI;2023年10月,Lepton AI 发布了其公开测试版本 (public beta)。

Lepton AI 是一个云原生AI平台,提供了一系列工具和服务,来降低AI应用开发的门槛帮助开发者更容易地完成创建、部署和扩展任务。也就是说,技术门槛不再是阻碍AI应用开发的主要因素,大家快速进入到创意比拼阶段。

img

www.xiaoyuzhoufm.com/episode/64c…

贾扬清非常厉害!我们所熟知并常用的深度学习框架 Caffe、TensorFlow、Caffe2Go、Caffe2、PyTorch 等,背后都有他的身影。

你可以在这期播客里,了解贾扬清对这轮大模型浪潮的诸多判断,以及指路时间轴 34:35 可以了解创始人视角的 Lepton.ai 创业方向,即提升系统效率与帮助客户做AI

img

search.lepton.run

12月初,贾扬清在其社交账号和朋友圈发帖,分享了他基于 Lepton Al 实现的AI搜索引擎 (类似 Perplexity),而且只用了不到500行代码 😎 现在访问上方 👆 这个链接还可以体验~ 不过大佬贴心提醒,资源不多,轻用轻用

据说这 500 行代码会在 LeptonAI 开源,目前还没蹲到,继续一起蹲吧 (* ̄3 ̄)╭

img

promptcraft.lepton.run

前几天,贾扬清分享了新的AI提示词应用 PromptCraft,可以自动拓展提示词,并生成两张对比图。如上图所示,只需要随意输入简单的单词,PromptCraft 就可以将其拓展成丰富的提示词长句,并生成效果展示图。其中,左侧图是输入提示词的生成效果,右侧图是AI拓展后提示词的生成效果,对比还是很明显的!

PromptCraft 目前是免费使用的阶段,可以玩起来哦!!

这两款应用,极大程度地展示了 Lepton Al 对于开发的加速效果,真的把AI应用的开发门槛「打」下来了!疯狂心动 ing~

img

🉑 两篇 AI Agent 必读长文回顾:Agent 架构与发展现状综述

img

lilianweng.github.io/posts/2023-…

2023年4月,AutoGPT 成为 Github 历史上涨星最快的项目,GPT-Engineer、BabyAGI 项目的陆续爆发将 AI Agent 火速带入到开发者和公众视野

2023年6月,Lilian Weng 在其个人博客撰文「LLM Powered Autonomous Agents」对 Agent 进行了系统的论述。需要注意的是,Lilian 是 OpenAI 的 Head of Safety Systems,之前领导过 OpenAI 的 Applied AI 团队。

她将 Agent 定义为 LLM、记忆 (Memory)、任务规划 (Planning Skills)、工具使用 (Tool Use) 的集合,其中,LLM 是核心大脑,Memory、Planning Skills 以及 Tool Use 等则是 Agent 系统实现的三个关键组件。

文章对每个模块的实现路径进行了细致的梳理和说明,并给出了可行的一些实践方法。此外,文末她还指出了当前存在的一些挑战,比如有限的上下文长度、长期规划和任务分解的挑战、自然语言界面的可靠性等 ⋙ 推荐阅读中文翻译版本

img

AI Agent 的火爆让我们开始畅想 Software 2.0 图景:LLM 作为推理引擎能力不断增强,AI Agent 框架为其提供结构化思考的方法;软件生产进入「3D 打印」时代,可以根据用户需求进行个性化定制;Agent 框架打造每个知识工作者信赖的 AI 工作伙伴

@海外独角兽 这篇文章,非常深刻地探讨了 AI Agent 的四个问题,并系统总结了发展现状和典型 Case,是必读文章之一。

🔔 01. 关于 AI agent 的四个关键问题

What are agents: 怎么理解 AI Agent

  1. AI agent 是 AI-native software 的开发方法,不是独立的商业赛道或产品形态。
  2. 优秀的 AI Agent 产品比传统软件更灵活,比 LLM 更可靠。
  3. Agent 和早期的 LLM-based 应用相比,有几个显著差异点:

So what: 为什么 AI agent 重要

  1. AI Agent 将使软件行业降低生产成本、提高定制化能力,进入软件的“3D 打印”时代
  2. LLM 扮演人类思考的系统 1 (快思考) ,AI Agent 扮演人类思考的系统 2 (慢思考)
  3. 推荐系统让每个人看到个性化的信息, AI Agent 将让每个人有个性化的工作方式,为每一个知识工作者提供 AI 合作伙伴和工作分身

Framework: 理想的 Agent 框架是什么样的

  1. 记忆:短期记忆 + 长期记忆
  2. 行动:工具使用+职责扮演+记忆检索+推理+学习+编程
  3. 决策:事前规划+事后反思

Is it now: 现状如何

  1. Autonomous Agent 有很强的启发意义,但缺乏可控性,不是未来的商用方向
  2. Agent Framework 和 Vertical Agent 是 AI agent 商业上最可行的两个方向,需要持续探索人机交互的方式

🔔 02. AI agent landscape

  1. Agent Framework
  • Agent Platform [Case Study:Fixie AI]
  • Agent Workflow [Case Study: Voiceflow]
  1. Vertical Agent
  • 2.1 Coding Agent:方向1-LLM-first IDE [Case Study: Cursor],方向2-Generative UI [Case Study: Vercel v0]
  • 2.2 个人助理 [Case Study: Lindy.ai]
  • 2.3 写作 Agent [Case Study: Hyperwriter]
  • 2.4 数据分析 Agent [Case Study: Julius AI]

🔔 03. AI Agent 的未来展望

  1. AI Agent 需要更模块化的框架,11 月 OpenAI devday 有机会定义标准
  2. AI agent 概念在强化学习领域早已出现,LLM-based agent 在探索试错的能力上要向 RL-based agent 学习
  3. AI agent 应用的真正成熟还需要等待 LLM 的优化:复杂推理能力不够强、延迟过高
  4. Multi-agent 协作会产生比 Chatbot 大一个数量级的文本量,带来成本控制和激励机制的挑战 ⋙ 推荐阅读全文

🉑 大模型应用最新方向解析:GPTs 、中间层、Chatbot虚拟社交、AI Agent…

img

这是一篇半年度发展汇总,记录并总结了 2023 年下半年至今,大模型应用领域的最新进展。从 GPTs、大模型中间层 (Dify、Coze)、大火的虚拟社交 (Character.AI等) ,到AI Agent 、大模型的多模态能力,还推荐了自己觉得很不错的几个应用。

文章梳理得非常不错!推荐阅读原文哦 ⋙ 推荐阅读原文(略长)

img

👀 VC投资人:大多数人工智能初创公司都注定无法成功

img

weightythoughts.com/p/most-ai-s…

几乎所有在ChatGPT之后的炒作中诞生的初创公司以及专门给自己贴上“人工智能初创公司”标签的公司都注定无法成功

作者是一位长期聚焦人工智能投资的VC投资人,他相信AI的价值但坚定认为,当前炒作周期中获得融资的大多数公司都是毫无价值的。

  1. 你一个周末打造出来,别人也可以:许多AI初创公司只是简单地将现有的AI API进行整合,缺乏真正的创新;这种模式容易复制,即使产品做得精致也难以避免被竞争对手模仿和超越;没有防御性和没有差异化就等于没有利润
  2. 连Alphabet、Meta或OpenAI都没有任何防御能力:大型科技公司 (如Google、Meta、OpenAI) 的大语言模型等AI技术也缺乏持久的防御性,并不足以成为长期的竞争优势;基本上所有独立发展专有模型的公司都会很快落后,并最终不得不采用全球最先进的技术
  3. 那么什么具备防御性呢:真正的防御性可能来自于两个方面:一是拥有巨大的计算资源,但这在经济上可能不可行;二是掌握真实世界的专有数据,这些数据难以从互联网获取,需要通过实际的实验和研究来收集,从而为公司提供独特的价值
  4. 创造的价值并不意味着获取的价值:AI技术创造了社会层面的巨大价值,但这些不一定能转化为公司的经济收益,尤其是初创公司很难从中获得相应的回报,少数获得巨额回报的公司将成为未来的科技巨头 ⋙ 中文版本(翻译得很好)

img

🉑 深度理解生成式AI (系列文章) | 第二部分:神经网络 Neural Networks

img

scorpil.com/post/unders…

补充一份背景:作者在编写「Understanding Generative AI (理解生成式AI)」系列文章,第一篇的话题是「Tokenizer」 ⋙ 在这份日报里已经详细介绍过

这篇文章是作者这个系列的第二篇文章,介绍了神经网络 (Neural Networks) 的基础知识,以及在生成性AI领域中的重要性,重点是如何通过不同的学习和训练策略来处理和生成数据

以下是内容要点,感兴趣可以和我们一起 Follow 整个系列!

A Short Look into the History 神经网络的历史

  • 神经网络技术起源于20世纪40年代和50年代,由 Warren McCulloch 和 Walter Pitts 等人奠定基础
  • 1950年代后期,Frank Rosenblatt 引入了感知器 (perceptron),这是机器学习的一个重要早期模型
  • 1980年代,反向传播算法 (backpropagation) 的发展标志着多层网络训练的重大突破,直接导致了深度学习革命
  • 2010年代,Transformer 模型的出现,特别是用于自然语言处理任务,代表了另一个巨大的飞跃

Neural Network Architecture 神经网络架构

  • 神经网络由多层节点 (神经元) 组成,这些节点通过链接相互连接,灵感来源于人脑
  • 网络中的权重 (连接强度) 对于处理和解释数据至关重要
  • 数据通过网络时,加权连接共同编码抽象概念,使网络能够识别复杂模式并基于学习到的模式生成新数据

Supervised Learning and Backpropagation 监督学习和反向传播

  • 调整神经元间连接权重的过程称为神经网络训练; 训练阶段通过调整连接权重来微调网络,以最小化输出与期望结果之间的误差
  • 反向传播算法通过从期望输出开始,反向计算误差并调整权重来优化网络
  • 反向传播不是单一算法,而是基于共同原则的一系列算法,如梯度下降、随机梯度下降和mini-batch学习

Unsupervised Learning 无监督学习

  • 在无监督学习中,网络在没有预设目标的情况下理解数据,适用于探索性数据分析、聚类和降维任务
  • 常见的无监督学习技术包括k-means聚类、主成分分析 (PCA) 和自编码器

Hybrid Learning Strategies 混合学习策略

  • 现代大型语言模型 (LLMs) 通常结合了监督学习和无监督学习
  • 自监督学习和弱监督学习是两种策略,前者从训练数据中生成自己的标签,后者在标记和未标记数据的混合上训练

Knowledge in the Wires 知识在网络中的体现

  • 神经网络通过多层结构学习越来越复杂的特征,从基本模式到完整对象的识别

Advanced Techniques 高级技术

  • 当代生成性AI的进步包括Transformers、扩散模型、专家混合 (Mixture of Experts) 和生成对抗网络 (GANs) 等

The Journey Ahed 未来展望

  • 尽管神经网络为现代AI系统的强大能力奠定了基础,但探索才刚刚开始,未来的“Understanding Generative AI”系列文章将深入探讨这些高级话题和新兴趋势

img

👀 这就是 ChatGPT (中文版电子书下载):深度探究它的工作原理

img

ShowMeAI知识星球资源编码:R221

Stephen Wolfram 是一位获奖科学家和畅销书作者,也是 Mathematica、WolframAlpha 和 Wolfram Language 等世界上广受尊敬的软件系统创造者。在过去35年的时间里,他一直担任全球科技公司 Wolfram Research 的首席执行官,并负责一系列基础科学领域的突破性进展。

他在2023年2月写了一篇长文「What Is ChatGPT Doing … and Why Does It Work?」来阐述 ChatGPT 的工作原理。很快,文章的同名书籍出版并得到迅速传播。 随后,这门书的中译版本「这就是 ChatGPT」在国内出版并上架读书 App,口碑很不错 (除了序言,可以不读 🤣)

社群伙伴分享了这本书的中文电子版,以下是书籍目录,感兴趣的可以前往 ShowMeAI 星球下载完整版本!

第一篇:ChatGPT 在做什么?它为何能做到这些?

它只是一次添加一个词

概率从何而来

什么是模型

类人任务 (human-like task) 的模型

神经网络

机器学习和神经网络的训练

神经网络训练的实践和学问

"足够大的神经网络当然无所不能!

"嵌入"的概念

ChatGPT 的内部原理

ChatGPT 的训练

在基础训练之外

真正让ChatGPT发挥作用的是什么

意义空间和语义运动定律

语义语法和计算语言的力量

那么,ChatGPT到底在做什么?它为什么能做到这些?

致谢

第二篇:利用 Wolfram Alpha 为 ChatGPT 赋予计算知识超能力

ChatGPT 和 Wolfram|Alpha

一个简单的例子

再举几个例子

前方的路

相关资源

感谢贡献一手资讯、资料与使用体验的 ShowMeAI 社区同学们!

img

◉ 点击 👀日报&周刊合集,订阅话题 #ShowMeAI日报,一览AI领域发展前沿,抓住最新发展机会!

◉ 点击 🎡生产力工具与行业应用大全,一起在信息浪潮里扑腾起来吧!

  • 9
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 是的,有一些 C 的神经网络库,例如: - FANN (Fast Artificial Neural Network Library) - libnn - Tiny-dnn - ccv (C-based/Cached/Core Computer Vision Library) - SNNS (Stuttgart Neural Network Simulator) 这些库都有自己的特点和用途,可以根据需要选择使用。 ### 回答2: 有许多可以使用的神经网络库,其中一个非常受欢迎的是Caffe(Convolutional Architecture for Fast Feature Embedding)。Caffe是一个使用C++编写的开源深度学习框架,它专注于速度、模块化和扩展性。Caffe最初是由贾扬在加州大学伯克利分校创建的,现在是一个活跃的开源项目,得到了广泛的学术和工业界支持。 Caffe提供了丰富的功能,包括用于构建、训练和部署神经网络模型的API接口。它支持多种类型的神经网络结构,如卷积神经网络(CNN)、循环神经网络(RNN)和深度信念网络(DBN),并且可以用于各种任务,如图像分类、目标检测和语音识别等。 除了Caffe,还有其他一些C语言编写的神经网络库可供选择,如Theano、Torch和TensorFlow。这些库都具有不同的特点和功能,可以根据具体的需求选择合适的库。无论使用哪个库,都可以通过学习和实践来深入了解神经网络的原理和应用,从而有效地构建和训练自己的模型。 总之,有很多C语言编写的神经网络库可供选择,其中Caffe是一个非常受欢迎和广泛使用的库,它提供了丰富的功能和灵活性,可以用于各种深度学习任务。 ### 回答3: 有,Caffe是一个流行的C++开源神经网络框架,由伯克利加州大学开发,已经得到广泛的应用和支持。Caffe提供了丰富的C++接口,用于构建和训练神经网络模型。它支持多种类型的神经网络结构,包括卷积神经网络(CNN)、循环神经网络(RNN)等,并且可以在CPU和GPU上运行。Caffe提供了丰富的功能,如基本的神经网络层(如全连接层、卷积层等)、优化器(如随机梯度下降)、数据预处理和模型可视化等。此外,Caffe还具有较好的扩展性,可以通过添加自定义的层或插件来满足个性化需求。总之,Caffe是一个功能强大且易于使用的C++神经网络库,适用于各种深度学习任务。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值