
githubID:horacehht
基础作业
1、使用InternLM-Chat-7B模型生成300字的小故事
使用以下代码启动命令行版本的demo
python /root/code/InternLM/cli_demo.py
输入Prompt为:我现在有点不开心,你能讲一个300字以上的童话故事给我听吗?最好故事结尾比较温馨,让人心头一暖,感受到世界的爱。
生成的小故事如下:

2、熟悉hugging face下载功能,使用huggingface_hub包,下载InternLM-20B的config.json文件到本地
首先下载huggingface_hub包
然后把下载文件的代码写到download.py文件中

直接执行python download.py会报错proxy error,万恶的网络。

看了一下聊天群里班长发过的hf-mirror网站,通过网站中的方案三成功解决了这个问题。

成功下载截图如下:

个人感觉就是把hf默认下载的源给换成国内的镜像源网站了,HF_ENDPOINT是hf会调用的系统变量(?不确定)。
进阶作业(可选做)
1、完成浦语·灵笔的图文理解及创作部署
在终端运行以下代码:
cd /root/code/InternLM-XComposer
python examples/web_demo.py \
--folder /root/model/Shanghai_AI_Laboratory/internlm-xcomposer-7b \
--num_gpus 1 \
--port 6006
这个的等待时间比较久,需要耐心等待到有文字提示"Running on local URL: http://0.0.0.0:6006"后,你才能在本地ssh连接后在本地浏览器看到。不然提前操作都是没有用的。

在网页版demo输入”东汉末年分三国“

可以看看终端的输出:


我们可以从终端的输出看到,他是从根据关键词在网上搜索插图,放到文章里的。
点击旁边的edit,可以更换图片,同时也可以看到模型搜图的prompt。

有些地方本身没有图片,但是旁边也有加号,也可以添加图片。
比如这里:

这是我点击加号后,终端的输出:

2、完成Lagent工具调用Demo创作部署
demo运行部署

问了2x+8=10,让他求x=多少,以下是一个示例(等待过程稍微优点漫长)
我们在终端也可以看到相关日志信息:

输入一个一元二次方程,也能得到正确的答案。

问气温这个需求无法做到,看起来没办法做搜索。

文章讲述了如何使用InternLM模型生成童话故事,通过huggingface_hub解决下载问题,以及部署浦语·灵笔图文理解和Lagent工具的步骤,包括遇到的网络问题和一元二次方程求解功能。

被折叠的 条评论
为什么被折叠?



