如何不写代码,训练人工智能模型?

本文介绍了lobe.ai这款工具,它简化了机器学习模型的开发过程,只需提供样本图片和标记,无需编写代码即可完成数据采集、标注、训练和部署。作者通过实例展示了其在图像识别上的应用潜力,预示了无代码AI的广泛应用前景。
摘要由CSDN通过智能技术生成

14fc29af42277fda4399f2cb4e8e078b.png

如今,机器学习框架在不断进化。训练一个人工智能模型出来,越来越简单了。

还记得我学的第一门机器学习课程,是吴恩达教授的 Cousera 慕课。当时用的工具,是 Octave (开源版本的 Matlab)。用起来那叫一个麻烦啊,就连最简单的线性回归,都需要写许多行代码。

2d07e53751490dfad29a5905354500fc.png

不过很快,后来我学到的机器学习 / 深度学习慕课,包括我自己做的视频教程,就都切换到了 Python 这样的「开发者友好」环境中。

从经典机器学习框架 Scikit-learn ,到深度学习框架 Tensorflow, Pytorch 和 fast.ai ,调用 API 训练人工智能模型方式越来越简洁,步骤也越来越少。

例如我给你演示过,如何在 fast.ai 里面,10 几行代码就能让模型分辨两种不同卡通人物

828859bee7acb9eaa4415351838a0865.png

再往前走一步,就是连代码都不需要,直接让电脑把训练任务自动「包圆儿」了。

这种工具,其实早就存在了。

我曾经在《数据科学入门后,该做什么?》一文里给你介绍过在北德克萨斯大学(UNT)参观工学院开放日的感受:

我曾驻足在一个海报前,问学生怎么获得了这么高的图像识别率,都如何调整超参数的?对方答不上来。但是告诉我他们用了 Cloud AutoML 。超参数调整云端后台直接搞定,根本不用自己操心。

fc072eb5680ae11e51f06c8dc158eef6.png

比起使用 Pytorch /Tensorflow 这样的传统深度学习框架编程进行训练,AutoML 确实会帮助你缩减很多流程。但是,对于普通人来说,其实依然存在着门槛。

如果你的数据不合乎系统的要求,或者训练结果不尽如人意时,你得知道该如何克服和改进。

实话实说,我曾经并不怎么重视这类「低代码」/「无代码」的应用,觉得实用性还不够高。

不过,今天在阅读少楠的《产品沉思录》的时候,我看到了关于 lobe.ai 的介绍。顺藤摸瓜去官网看了一下介绍视频,感觉就是两个字 —— 惊艳。

09b535320dde5f5b2f965a0978f37854.png

凭借着一个电脑自带摄像头,讲者 Jake 演示了数据采集、数据标注、模型训练、模型预测、模型迭代…… 直到模型导出部署到 Tensorflow 样式的全过程。

对,尽管不需要写代码,但你依然可以把训练好的模型按照主流框架输出。这样别人可以分分钟把你的模型纳入到他们的应用开发或者工作流程中。

Jake 只用了几分钟,就做了一个自动识别饮水动作的应用。

5a281dbf69467aea81f1bcc92f84ea58.gif

这里的机器学习部分,你真的是一句代码都不用写,只需要按照机器学习的原初定义,提供给它样本图片对应的标记即可。

7ea705678c0afca5bc1b466e4d40a6ce.gif

标记的方法,真的是非常简单。输入一个新标记,然后对着摄像头一通拍,数据就齐全了。

当然,除了这样通过摄像头现场采集图片之外,你也可以从电脑批量选取图片文件夹喂给模型。

74b10f18bde826128fe6bedf576a679b.png

想想看,如果你根本不用懂得编程,就可以开发智能模型,那么应用场景将产生井喷。这不是什么「预言」,官网已经给出了很多的例子。

202e70a9809452a13f422cd6862ff202.gif

这就是工具普及化带给我们的好处。就如同今天你不必拥有绘画的天赋,就能通过相机快速记录自己看到的一切。以后在利用人工智能开发应用时,真正能限制我们的,可能只剩下想象力了。

虽然目前这个工具还只能服务于机器视觉任务,但是我相信随着迭代开发,更多类型数据的训练功能也会集成在其中。

即便 lobe.ai 不做这个事儿,其他开发者应该也已经注意到了这个可行的路径。

Lobe.ai 完整的介绍视频,在这里。

希望你不要满足于观赏和惊叹,而是一定要实际动手尝试一下这个应用。lobe.ai 桌面端下载地址在这里,目前支持 Windows 和 macOS。也欢迎你把自己模型训练的成果分享到留言区,我们大家一起欣赏,交流学习。

祝(无代码)深度学习愉快!


延伸阅读

知识星球目前已发布了数十篇精华文章。

c4ab5da945ed843bb07ecc52b1cceec4.png

我把标题和链接做了个表格,放在了飞书文档。欢迎你通过下面的二维码查看。

6c42cf15414fb010a54100d3bd920b0d.png

请订阅我的微信公众号「玉树芝兰」,如果不加星标,会错过新推送提示。

感觉有用的话,请点「在看」,并且把它转发给你身边有需要的朋友。

欢迎关注我的视频号,时常更新。

0d815b8608c57c809c59f1b2392a1235.png

由于微信公众平台的限制,文中部分链接可能无法正常显示与跳转。如需访问,请点击文末「阅读原文」链接,查看链接齐备的版本。 

在VSCode中集成预训练的AI模型通常涉及以下几个步骤: 1. **安装依赖库**:首先,确保你在Python环境中安装了相应的库,例如`transformers`(用于处理像Hugging Face的GPT系列这样的预训练模型),以及可能需要的数据处理库如`pandas`。 2. **下载模型**:前往模型提供商的网站(如Hugging Face Model Hub)下载所需的预训练模型。比如,如果你想要使用GPT-Neo,可以在GitHub或Hugging Face Hub上找到它的`model card`并获取相应的`weights_path`或`model_name_or_path`。 3. **加载模型**:在VSCode中,使用`transformers`的`load_model_from_pretrained`函数加载模型。这通常是在你的项目中创建一个新脚本或现有的Python文件里进行: ```python from transformers import GPT2LMHeadModel, GPT2TokenizerFast model_name = "gpt2-neo" tokenizer = GPT2TokenizerFast.from_pretrained(model_name) model = GPT2LMHeadModel.from_pretrained(model_name) ``` 4. **编码用户输入**:当用户输入一个问题或指令时,使用tokenizer将文本转换成模型能理解的格式。 5. **调用模型生成文本**:通过`model.generate`函数,传入编码后的输入并设置生成长度等参数,得到生成的结果。 6. **整合到VSCode**:你可以在VSCode中创建一个命令或交互式工具,例如使用`vscode.tasks` API,编写一个任务来运行上述代码片段,或者使用`Jupyter Notebook`作为开发环境,通过快捷键直接调用。 7. **测试和优化**:确保模型能在VSCode环境中稳定工作,并根据需要调整生成的文本质量。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值