![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能
文章平均质量分 79
skywalk8163
天马行空,我心飞翔!
展开
-
2024阿里巴巴全球数学竞赛-预选赛(重在参与)
看到最近阿里巴巴数学竞赛上了热搜,才突然想起来咱也参加了预选赛呢。当时做了记录,把解题思路也一并奉上。当然这个成绩就没有再参加后面的正式比赛了,更不用说2024.6.22日的决赛。原创 2024-06-24 13:38:11 · 488 阅读 · 0 评论 -
HY编程快速入门实践课第二章 跟着python学HY
HY是跟python最亲近的Lisp,有python基础的同学们学起来会感觉尤其亲切。HY的两大特点,也就是Lisp的两大特点:1 括号+前置运算符2 宏HY可以导入各种python库,所以也就可以导入飞桨库,进行AI的训练和推理工作!原创 2024-06-21 19:06:43 · 1466 阅读 · 0 评论 -
Text-to-code Generation with TensorFlow, & MBPP 使用 TensorFlow 生成文本到代码,& MBPP
鉴于通过机器学习方法提高软件开发效率的目标,软件智能研究在过去十年中引起了学术界和工业界越来越多的关注。软件代码智能技术可以帮助开发人员减少繁琐的重复性工作量,提高编程质量,提高整体软件开发效率。这将减少编写软件所花费的时间,并降低计算和运营成本。文本到代码生成是一项任务,我们可以根据自然语言描述生成代码。它可以进一步用于构建人工智能驱动的编码助手。开发人员只需输入自然语言描述或函数签名即可指定其意图,AI 编码助手即可为他们生成或完成目标函数。这有助于加快实施速度,并减少对外部资源的依赖。翻译 2024-06-11 12:13:29 · 11 阅读 · 0 评论 -
安装后或升级启智环境到飞桨2.6版本(develop)
PaddleNLP的飞桨大模型套件秉承了一站式体验、性能极致、生态兼容的设计理念,旨在提供业界主流大模型预训练、精调(含SFT、PEFT)、量化、推理等统一流程, 帮助开发者低成本、低门槛、快速实现大语言模型定制化。启智社区的启智大脑调试环境非常好用,但是里面的飞桨环境版本比较低,为了能够运行大模型(llm),需要升级飞桨到2.6版本或者开发版本。现在准备测试下最新的PaddleNLP是否可以用,先安装PaddleNLP。会显示0.0.0版本,这就是开发板默认的版本显示。原创 2024-06-10 21:08:44 · 628 阅读 · 0 评论 -
文心大模型5.21日开始免费拉!附ernie-speed模型使用方法
文心speed模型真的很不错,大家都来试试吧!关键还是免费的呢!原创 2024-05-22 07:00:00 · 2399 阅读 · 0 评论 -
使用chatglm.cpp本地部署ChatGLM3-6B模型
ChatGLM3-6B 是 ChatGLM 系列最新一代的开源模型 交互实践:../build/bin/main -m ~/models/chatglm3-6b/chatglm3-ggml.bin -p 你好,最好的大模型是哪一款?创建models目录,到目录里下载chatglm3-6b模型到chatglm3目录里。ChatGLM3 > 如果树上有8只鸟,打死3只后,树上将剩下5只鸟。原创 2024-05-20 17:09:06 · 1173 阅读 · 0 评论 -
测试大模型八皇后求解ChatGPT、文心一言和ChatGLM3
当前常见的大模型有文心一言、ChatGPT,以及开源的ChatGLM等,今天我们就以八皇后问题来考一下这三个大模型。让我们看看它们的表现吧!我认为c语言对它们可能有点难,就先用lisp试试。虽然很多代码生成并不能一次性成功,但是在多个大模型交叉调试的情况下,还是能满足我们的日常编程需求的。原创 2024-05-20 14:35:00 · 873 阅读 · 0 评论 -
脑筋急转弯对大模型还是有点难啊
测试下来,大部分大模型对树上打鸟这个问题是答不对的,记得只有文心、chatglm等少数大模型可以答对。问题:树上10只鸟,打死2只,还有几只?原创 2024-05-18 17:58:36 · 286 阅读 · 0 评论 -
第六十六回 宋江赏马步三军 关胜降水火二将 -Blender软件制作卡通快速入门实践
Blender简介Blender 是一款开源的三维计算机图形软件,它提供了广泛的功能,包括建模、动画、渲染、视频编辑等。Blender还支持Python编程接口,允许用户通过编写脚本来控制和定制软件的各个方面。Blender的功能非常强大,它被广泛应用于电影制作、动画制作、游戏开发等领域。由于其开源的特性,Blender还拥有一个活跃的社区,用户可以分享插件、教程和艺术作品。Blender曾用于《流浪地球》最后那个宏大场面:行星发动机从地球表面发射并将地球推向太空的壮观景象的CG生成。原创 2024-05-18 15:24:17 · 1060 阅读 · 0 评论 -
ChatGPT、Llama等大模型回答脑筋急转弯
从回答来看,ChatGPT4是最准确的,其它三个模型中,ChatGPT3.5和Meta-Llama-3-70B-Instruct 都是纯数学计算,从低于4岁的小孩参照来看,还是可以的,但是大于四岁的小孩会发现里面深层次的问题,而且会在被提醒后自动纠正答案。Llama-2-70b-chat-hf则自作主张的展开了描述,但是逻辑上欠缺更多一些。原创 2024-05-17 08:50:48 · 763 阅读 · 0 评论 -
海思Hi3065H 200MHz 高性能 RISCV32 A² MCU
这是一款海思自研的RISCV32内核的高性能实时控制专用MCU, 具有高性能、高集成度、高可靠性、易开发的特点,同时还有嵌入式AI能力。原创 2024-05-14 11:49:22 · 557 阅读 · 0 评论 -
快来参加【顶尖赛事】LIC·2024 语言与智能技术竞赛
语言与智能技术竞赛(LIC)是由中国中文信息学会(CIPS)和中国计算机学会(CCF)联合主办,百度公司、中国中文信息学会评测工作委员会和中国计算机学会自然语言处理专委会承办的中文NLP顶级赛事,迄今已举办五届,已成为中文NLP领域内最权威、最热门的赛事之一。作为名副其实的国民科普文化品牌——《十万个为什么》涵盖了广泛科学领域知识问答,承载着几代人的科学启蒙。竞赛将在语言与智能高峰论坛举办技术交流和颁奖,论坛由中国中文信息学会、中国计算机学会联合举办。原创 2024-05-13 21:22:37 · 277 阅读 · 0 评论 -
学习torchmd分子动力学模拟
TorchMD打算提供一种简单易用的API,用于使用PyTorch进行分子动力学。这使研究人员能够更快地进行力场开发研究,并以PyTorch的简单性和强大性将神经网络潜力无缝集成到动力学中。TorchMD使用与经典MD代码(如ACEMD)一致的化学单位,即kcal/mol表示能量,K表示温度,g/mol表示质量,Å表示距离。TorchMD目前正在进行中,请随时提供有关API或GitHub问题跟踪器中潜在错误的反馈。原创 2024-05-09 17:22:13 · 1063 阅读 · 0 评论 -
很牛的东西PaddleKAN(Paddle kolmogorov arnold network)
受Kolmogorov Arnold表示定理的启发,我们提出了Kolmogorov-Anold网络(KAN)作为多层感知器(MLP)的有前途的替代方案。虽然MLP在节点(“神经元”)上具有固定的激活功能,但KAN具有可学习性边上的激活函数(“权重”)。KANs根本没有线性权重——每权重参数由参数化为样条曲线的单变量函数代替。我们展示这个看似简单的变化使KANs在准确性方面优于MLP以及可解释性。就准确性而言,更小的KANs可以实现相当或更好的结果。原创 2024-05-03 11:51:21 · 922 阅读 · 2 评论 -
pytorch 线性代数基本操作
pytorch是非常好的人工智能训练和推理框架,我们来通过李沐老师的《动手学深度学习》来简单学习一下。也可以到kaggle、colab、启智社区等使用配置好的pytorch环境,更简单方便。原创 2024-05-04 07:51:18 · 964 阅读 · 0 评论 -
安装英伟达nvidia p4计算卡驱动@FreeBSD14
在磕磕绊绊几天后,终于成功成功安装好nvidia p4的cuda驱动,pytorch成功运行,FreeBSD也能跑cuda AI训练拉!原创 2024-05-02 22:45:15 · 1593 阅读 · 0 评论 -
在docker中安装paddle serving @FreeBSD(待续)
因为FreeBSD本身不能装paddle serving,所以我们要在docker里面装。真装起来才发现问题多多,待后面再解决问题。原创 2024-04-28 22:30:35 · 1905 阅读 · 0 评论 -
快速部署stable diffusion@Ubuntu
Stable Diffusion可以根据文本描述生成相关的图像,是当前最热门的文生图模型。在Ubuntu下,可以选择快速安装,或者手动一步步安装。原创 2024-04-22 22:50:54 · 1358 阅读 · 1 评论 -
stable diffusion本地部署@win10
stable diffusion是当前非常出色的文生图模型,要优于以前gan文生图模型。现在有了stable-diffusion-webui软件,可以一键安装,大大简化了操作难度。本文档就是stable-diffusion-webui在windows 10上的安装实践。原创 2024-04-22 22:40:07 · 1198 阅读 · 0 评论 -
使用飞桨快速部署stable diffusion模型
这可以说是最快的部署stable diffusion模型的方法了,而且星河社区还有免费的GPU算力提供,这样再也不用担心没有算力了!注意,模型限制77个字符的输入,超出会报错:is too long for context length 77。在V100下22秒输出一张图。可以看到画的图还是不错的。原创 2024-04-21 20:47:40 · 874 阅读 · 0 评论 -
python安装transformers包@FreeBSD
在FreeBSD系统python3.10下直接pip安装 Transformers ,会失败,卡在安装tokenizers这里,解决方法是手动编译安装tokenizers, 然后再安装transformers即可。Transformers 提供了数以千计的预训练模型,支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨是让最先进的 NLP 技术人人易用。🤗 Transformers 提供了便于快速下载和使用的API,让你可以把预训练模型用在给定文本、在你的数据集上微调然后通过。原创 2024-04-21 18:37:42 · 271 阅读 · 1 评论 -
PyTorch and Stable Diffusion on FreeBSD
Stable Diffusion在图像生成领域具有广泛的应用和显著的优势。它利用深度学习和扩散模型的原理,能够从随机噪声中生成高质量的图像。FreeBSD下难度主要在Miniconda的安装上,pytorch等需要使用conda命令安装。Stable Diffusion部分跟其它linux平台的操作类似。学到的最主要的两点:1 FreeBSD下安装CUDA2 FreeBSD下安装Conda(Miniconda)原创 2024-04-20 23:04:57 · 751 阅读 · 1 评论 -
安装Miniconda@FreeBSD13
近几年在学习和使用AI框架的时候,时时刻刻在想着如何在FreeBSD下进行训练和推理部署,可惜一直没有如愿。近几天在调试大模型的一些项目时,尝试将飞桨、torch和tensorflow装了个遍,可惜都没有成功。机缘巧合下,看到freebsd-stable-diffusion这个项目,了解到有linux-miniconda-installer这个软件包,并通过学习它而学到如何在FreeBSD下安装任意版本的Miniconda。本文档将两种安装方法都发布出来。原创 2024-04-19 12:27:37 · 1639 阅读 · 0 评论 -
python安装tokenizers包@FreeBSD
tokenizers提供了当今最常用的tokenizers的实现,重点关注性能和多功能性。在FreeBSD系统python3.10下直接pip安装tokenizers报错,于是改为手动安装。原创 2024-04-18 23:30:10 · 625 阅读 · 0 评论 -
python安装pytorch@FreeBSD
在FreeBSD系统下pip安装pytorch,报错安装pyproject再pip 安装pytorch还是同样的报错:查找帮助说:运行编译过程中出现错误,并提示“Too many arguments to functions call, expected....”的信息:遇到这种情况时,该如何解决呢?原创 2024-04-18 23:23:14 · 1244 阅读 · 0 评论 -
安装GPT 学术优化 (GPT Academic)@FreeBSD
gpt academic是非常好的工作助手,功能较多且实用。原创 2024-04-17 23:12:53 · 1447 阅读 · 0 评论 -
pip安装swig@FreeBSD
SWIG (Simplified Wrapper and Interface Generator) 是一个用于连接 C/C++ 代码与其他高级编程语言(如Python、Java、C# 等)的工具。它允许开发人员将现有的 C/C++ 代码封装成可以在其他语言中调用的接口,而无需手动编写大量的代码。SWIG 的工作原理是,它读取 C/C++ 头文件,并根据这些头文件自动生成包装代码,用于将原生的 C/C++ 函数和数据结构映射到目标语言中。原创 2024-04-17 19:59:17 · 1237 阅读 · 0 评论 -
吴恩达llama课程笔记:第七课llama安全工具
羊驼Llama是当前最流行的开源大模型,其卓越的性能和广泛的应用领域使其成为业界瞩目的焦点。作为一款由Meta AI发布的开放且高效的大型基础语言模型,Llama拥有7B、13B和70B(700亿)三种版本,满足不同场景和需求。吴恩达教授推出了全新的Llama课程,旨在帮助学习者全面理解并掌握Llama大模型这一前沿技术。原创 2024-04-16 15:26:06 · 943 阅读 · 0 评论 -
吴恩达llama课程笔记:第六课code llama编程
羊驼Llama是当前最流行的开源大模型,其卓越的性能和广泛的应用领域使其成为业界瞩目的焦点。作为一款由Meta AI发布的开放且高效的大型基础语言模型,Llama拥有7B、13B和70B(700亿)三种版本,满足不同场景和需求。吴恩达教授推出了全新的Llama课程,旨在帮助学习者全面理解并掌握Llama大模型这一前沿技术。原创 2024-04-15 22:26:01 · 756 阅读 · 0 评论 -
吴恩达llama课程笔记:第四课提示词技术
羊驼Llama是当前最流行的开源大模型,其卓越的性能和广泛的应用领域使其成为业界瞩目的焦点。作为一款由Meta AI发布的开放且高效的大型基础语言模型,Llama拥有7B、13B、33B和65B(650亿)四种版本,满足不同场景和需求。吴恩达教授推出了全新的Llama课程,旨在帮助学习者全面理解并掌握Llama大模型这一前沿技术。原创 2024-04-15 21:55:56 · 862 阅读 · 0 评论 -
荔枝派LicheePi 4A RISCV板子支持的好玩的AI模型
荔枝派LicheePi 4A 是基于核心板的 高性能 RISC-V Linux 开发板,以为主控核心(4xC910@1.85G, RV64GCV,4TOPS@int8 NPU, 50GFLOP GPU),板载最大 16GB 64bit LPDDR4X,128GB eMMC,支持 HDMI+MIPI 双4K 显示输出,支持 4K 摄像头接入,双千兆网口(其中一个支持POE供电)和 4 个 USB3.0 接口,多种音频输入输出(由专用 C906 核心处理)。原创 2024-04-14 22:43:08 · 1159 阅读 · 0 评论 -
第六十五回 时迁火烧翠云楼 吴用智取大名府-羊驼大模型的部署应用:llama.cpp和llama.c纯c编译安装部署 以及Ollama一键部署
LLaMA羊驼模型是元宇宙平台公司(Meta)公开发布的一款大型语言模型。该模型建立在Transformer基础架构上,采用了多层神经网络结构,有助于捕捉和学习数据中的复杂模式。这种设计使得LLaMA模型在自然语言处理方面表现突出,能够进行语义分析、情感识别和文本生成,广泛应用于人工智能各种场景。羊驼模型最显著的特点之一是它的开源性,这意味着任何研究人员或开发者都可以访问和使用该模型的源代码。此外,羊驼模型是在公开预训练数据上进行训练的,这保证了其通用性和可复现性。原创 2024-04-14 09:47:02 · 1403 阅读 · 0 评论 -
第六十二回 宋江兵打大名城 关胜议取梁山泊-飞桨ONNX推理部署初探
石秀和卢俊义在城内走投无路,又被抓住。梁中书把他两个人押入死牢。蔡福把他俩关在一处,好酒好菜照顾着,没让两人吃苦。第二天就接到城外梁山泊的帖子,说大军已经来到,要替天行道,让他放人,并交出李固。梁中书被吓坏了,赶紧写表申奏朝廷并告知蔡京。其实这是吴用的缓兵之计,大队人马要稍后才能来到。梁山派出大军去救卢俊义。李逵做先锋,与一丈青扈三娘、扑天雕李应等在飞虎寨打败李成和索超。梁山打仗超顺的,AI人工智能方面,熟练使用ONNX进行推理,也会感觉超顺的。原创 2024-03-22 19:39:20 · 1606 阅读 · 0 评论 -
解锁智能未来:用Ollama开启你的本地AI之旅
Ollama是一个强大的工具,适用于希望在本地环境中探索和使用大型语言模型的用户,特别是那些对AI技术有深入兴趣和需求的专业人士。原创 2024-04-13 18:54:18 · 660 阅读 · 0 评论 -
春天到了,小花开了,大模型平民版gpt4free又整活了!
GPT4Free为普通人提供了学习、研究场合用的大模型服务,大大降低了大模型技术的门槛,让更多人有机会亲身体验到人工智能的魅力。让我们在GPT4Free的助力下,大家一起探索无限的知识海洋,发掘前所未有的创新潜能!原创 2024-04-13 14:57:52 · 1364 阅读 · 0 评论 -
gpt4free报错集锦
后来又重新编译安装了glibc-2.32 ,还是一样的报错Segmentation fault。本来安装nodriver是为了解决一个问题才装的,结果反而带来了问题。装好之后运行ls等命令报错:Segmentation fault。升级ubuntu系统的glibc。问题没有解决,先搁置。原创 2024-04-12 20:28:34 · 893 阅读 · 0 评论 -
知道智源开源最强语义向量模型BGE是什么吗?
Hugging Face 模型镜像/bge-m3。原创 2024-04-12 10:45:52 · 1268 阅读 · 0 评论 -
OpenDevin调试报错
确认系统资源(如CPU、内存和磁盘空间)是否充足,以便启动新的Docker容器。最终测试完毕,是国内的g4f api服务不稳定(或者说有时候连不上)导致的,换成莫斯科的就好了。另外v1/chat/completions测试通过,v1/models测试失败。这样使用g4f作为chatgpt的替代,还是没成功啊。显示:{"detail":"Method Not Allowed"}究其原因可能是前面的后台没有完全杀掉导致的。究其原因可能是前面的后台没有完全杀掉导致的。证明这个不能交互,要交互还是要用chat。原创 2024-04-11 23:15:21 · 897 阅读 · 0 评论 -
g4f姊妹篇:g4l gpt4local面世拉!
可喜的是,现在它的姊妹篇,gpt4local也面世拉!g4l是一个高级 Python 库,允许您使用llama.cpp绑定运行语言模型。它是 @gpt4free 的姊妹项目,也提供人工智能,g4l不需要联网调用openai的资源,也就是模型下载到本地后可以完全本地运行,不需要联网。原创 2024-04-11 23:09:29 · 673 阅读 · 0 评论 -
huggingface无法下载模型的问题解决
OpenDevin里面的embedding模型需要从huggingface下载,但是连不上,怎么办呢?我的解决方法是,通过报错信息,找到huggingface所在的文件。理论上只要设置这个环境变量,不需要再进去改源代码了。感觉离胜利很近了,但是还没有成功。再设置环境变量,乌拉,成功拉!试了一下,没有成功。原创 2024-04-10 23:09:43 · 600 阅读 · 1 评论