- 博客(88)
- 资源 (12)
- 收藏
- 关注
原创 PyTorch中如何在本地加载Roberta模型:Transformers实战指南
所需的有 config.json, merges.txt, pytorch_model.bin(下载后重命名), vocab.json。不同版本的transformers里import的用法可能不同,所以强调了版本,Roberta模型没有token_type_ids,也就是segment_ids。本地加载roberta-base模型文件,roberta-large同理,只不过hidden_size从768变为1024,此处transformers版本是2.11.0,Roberta 的则是。
2024-07-21 21:30:41
351
原创 PyTorch实战:深度解析Tensor归一化技巧与应用
在机器学习中,我们的数据通常都需要进行归一化。这是因为不同特征的数据值之间可能存在明显的偏差,从而会影响到模型的效果和准确度,同时也会提高模型的训练难度。在机器学习和深度学习中,数据预处理是一个关键的步骤。其中,对于某些情况下,特别是生产的环境,数据归一化是一项必不可少的任务。在 PyTorch 中,对于 Tensor 的归一化,它提供了一些内置的函数。一些常用的归一化方法包括:标准化、最大最小归一化和稀疏特征归一化等,下面将会逐一介绍。将每个特征的数值转换成标准正态分布,即均值为 0,方差为 1。
2024-07-21 21:30:08
305
原创 探索前沿:OOTDiffusion虚拟试穿技术与Groq超速大模型解析
Cosmopedia有8个子集,根据用于提示的种子样本的来源而划分。对于主题聚类,他们首先从网络数据集中聚类了数百万个文件,然后用这些样本的提取内容提示Mixtral 8x7B,并要求它找到它们共同的主题并为该主题提供教育得分。OOTDiffusion是一种基于潜在扩散的虚拟试穿技术,其主要目的是通过实现控制性的换装融合,让用户能够在虚拟环境中试穿不同的服装。SoraWebui是一个开源项目,它的主要功能是利用OpenAI开发的Sora模型,通过文本输入在线生成视频,非常简便易用,还支持一键式网站部署。
2024-07-21 21:29:35
199
原创 Python+Django+DRF+Vue:构建测试平台实战——第2步,集成DRF框架
ALLOWED_HOSTS是一个字符串列表,代表了这个Django网站可以服务的主机名或域名,填写上“*”可以使所有的网址都能访问Django项目了,项目测试的时候,可以这么做。把templates文件夹删除掉,db.sqlite3文件删除掉。②. ALLOWED_HOSTS默认值:[](空列表)将sqlite3数据文件形式修改为mysql。就此 DRF框架和Django集成完毕。就此 DRF框架和Django集成完毕。这个时候启动会报一个错误如下图。⑤. 配置drf相关包。
2024-07-16 09:01:28
290
原创 TensorFlow2实战:一步步构建Sequential模型
激活函数可选配置: softmax、elu、softplus、softsign、relu、tanh、sigmoid、hard_sigmoid、linear。#常数:zero、zeros(默认偏置项配置)、Zeros、one、ones、Ones、constant、Constant。#均匀分布:uniform、random_uniform、RandomUniform。#正态分布:normal、random_normal、RandomNormal。#正交:orthogonal、Orthogonal。
2024-07-16 09:00:54
252
原创 PyTorch模型可视化实战:理解与调试神经网络
pytorch的模型结构可视化方法:(1)使用tensorboardX(不太直观)(2)使用graphviz加上torchviz (依赖于graphviz和GitHub第三方库torchviz)(3)使用微软的tensorwatch (只能在jupyter notebook中使用,个人最喜欢这种方式)(4)使用netron可视化工具(.pt 或者是 .pth 文件)
2024-07-16 09:00:22
268
原创 PyTorch实战:模型训练学习率动态调整策略
在rel模式下,如果mode参数为max,则动态阈值(dynamic_threshold)为best*(1+threshold),如果mode参数为min,则动态阈值为best+threshold,如果mode参数为min,则动态阈值为best-threshold;因此,我们引入学习率衰减的概念,就是在模型训练初期,使用较大的学习率进行优化,随着迭代次数增加,学习率会逐渐进行减小,保证模型在训练后期不会有太大的波动,从而更加接近最优解,那么,在pytorch中,学习率衰减应该如何实现?
2024-07-16 08:51:13
346
原创 Tensorflow2.x实战:一步步教你玩转GPT模型
TensorFlow2.x 是目前最流行的机器学习和深度学习框架之一,对 GPT 模型的支持度也非常高。在本篇文章中,我们将详细介绍如何使用 Tensorflow2.x 构建并使用 GPT 模型。首先,我们需要安装 Tensorflow2.x 和 Transformers 库(该库是一个用于构建和使用自然语言处理模型的 Python 库)。在安装完成 Tensorflow2.x 和 Transformers 库之后,我们需要配置 GPT 模型的参数。您可以在 Anaconda 或 pip 中安装这两个库。
2024-07-16 08:50:42
208
原创 深入剖析Word2vec:Skip-Gram模型揭秘(结构篇)
Word2Vec是从大量文本语料中以无监督的方式学习语义知识的一种模型,它被大量地用在自然语言处理(NLP)中。那么它是如何帮助我们做自然语言处理呢?Word2Vec其实就是通过学习文本来用词向量的方式表征词的语义信息,即通过一个嵌入空间使得语义上相似的单词在该空间内距离很近。Embedding其实就是一个映射,将单词从原先所属的空间映射到新的多维空间中,也就是把原先词所在空间嵌入到一个新的空间中去。
2024-07-16 08:50:09
405
原创 2023年人工智能大模型:产业创新与价值深度探索.pdf【独家下载】
(到省时查报告小程序中搜索“ChatGPT”、“AIGC”、“大模型”、“人工智能”、“AI”、“元宇宙”、“数字人”、“人工智能”、“数字经济”、“增长”、“营销”、“运营”、“创业”、“商业”等关键词可以下载海量相关干货资料)更多细节和相关资料请到小程序省时查报告中查看全文并下载(可以搜索“推荐”获取更多推荐相关资料文档)。今天给大家分享速途网和大模型之家联合发布的干货报告《2023人工智能大模型产业创新价值研究报告.pdf》,关注大模型、AIGC、省时查报告-专业、及时、全面的行研报告库。
2024-07-13 21:35:01
315
原创 DALL·E 2 深度解析:预训练CLIP与扩散模型打造文本到图像生成术
最终训练好的prior,将与CLIP的text encoder串联起来,它们可以根据我们的输入文本y生成对应的图像编码特征zi了。我们这事丢掉CLIP中的img encoder,留下CLIP中的text encoder,以及新训练好的prior和decoder。并且decoder的重建过程也经常混淆属性和物体,如下图所示,例如中间的柯基图片,有的重建结果将其帽子和领结的颜色搞反了。DALL·E 2是将其子模块分开训练的,最后将这些训练好的子模块拼接在一起,最后实现由文本生成图像的功能。
2024-07-13 21:34:29
959
原创 实战智谱AI:CharacterGLM操作指南
通过代码包中api文件,调用get_characterglm_response实现多轮对话,并在output_stream_response中实现保存对话至文件的功能,这里我们指定为json文件格式。1.基于一段文本(自己找一段文本,复制到提示词就可以了,比如你可以从小说中选取一部分文本,注意文本要用markdown格式)生成角色人设,可借助ChatGLM实现。4.(可选)设计图形界面,通过点击图形界面上的按钮执行对话数据生成,并展示对话数据。然后我们利用简单的示例进行测试,可以看出生成了不同风格的图片。
2024-07-13 21:33:56
201
原创 Transformer模型解析:走进自然语言处理的新时代
大家好!我是麦克船长,目前就职于阿里巴巴集团,任总监/资深综合运营专家,先后负责过淘宝行业产品团队、天天特卖、大聚划算运营中心。网名一直用「麦克船长」,中科大计算机本科毕业后先是做的音视频流媒体技术、分布式系统等等,干过 Full Stack,后来创业在技术、产品、运营、营销、供应链等等方面多年后来到阿里,在淘系带过不同业务的产品、运营团队。文本来自我的个人博客:MikeCaptain - 麦克船长的技术、产品与商业博客,梳理了自己在春节期间对 NLP 基础模型的技术演变学习笔记记录,写就于大年初一在香
2024-07-10 22:36:19
789
1
原创 使用AutoGPT构建智能体:从LSTM到Prompt编写实战教程001
如果报错,这里会有一个环境变量的设置需要设置上.然后这一节我们来自己制作一个智能体,来感受一下,实际上现在,大模型还是可以做很多功能的.可以看到上面是智能体的架构,之前也说过了,上面这几个功能,如果用我们人类去操作,还是需要花些时间的,如果用大模型就快很多了.以上是我们利用的三个文件,然后下面是我们用到的表格这两个excel文件。
2024-07-10 22:35:46
300
原创 PyTorch实战:利用matplotlib可视化模型内部Tensor
由于原本的tensor是4维的,所以需要将tensor压缩到3维(压缩掉只有一个参数的channel),使用的函数是squeeze,删除size=1的维度,详细用法可见https://pytorch.org/docs/stable/generated/torch.squeeze.html)。这里注意如果batch为1会把batch也压缩掉,下一不就不需要for直接imshow就可以。该可视化的假设是,tensor原本是四维,一个是channel一个是batch还有俩feature维度。
2024-07-10 22:35:13
271
原创 使用ChatGPT提升Python PyEcharts雷达图绘制技巧
雷达图是一种常用的数据可视化工具,通常用于比较量度数据之间的关系。雷达图通常由一组放射线、每个放射线的数据系列和一个共同中心点组成。最终,雷达图将数据表示为每个数据系列的分数或度数。Pyecharts雷达图是一种基于Python的工具,提供了创建雷达图的简单方法。它使用星形图形式来表示有关单个主题的不同数据点及其排名。
2024-07-08 08:24:10
289
原创 实战篇:逐步揭秘大模型应用开发——第二章 API调用指南
学习了国内外不同的大模型API的调用方式,同时基于Poe聊天界面开发一个小的爬虫问答应用,但是Poe的聊天界面也有轮次限制,基于爬虫的方式是高度定制的,针对每个聊天窗口是不太现实的,但是最起码可以自动化问答了,有助于利用大模型进行预测任务的完成。
2024-07-08 08:23:38
1043
原创 TensorFlow 2.0 模型保存与转换:.pb格式详解
tensorflow原生保存的模型不适用于多平台使用,将模型转化为.pb格式,可以更加方便的转化为别的格式,本文主要介绍如何转化.pb格式。这种方式是训练完,然后使用tf.saved_model.save()函数保存模型,然后将模型转化为.pb格式.这种方式的好处是可以将别人训练好的.h5模型文件拿来转.pb模型。测试转化的.pb模型是否转化成功,能否加载。
2024-07-08 08:22:55
337
1
原创 PyTorch模型权重初始化全攻略
Pytroch常见的模型参数初始化方法有apply和model.modules()。Pytroch会自动给模型进行初始化,当需要自己定义模型初始化时才需要这两个方法。
2024-07-08 08:04:43
235
原创 PyTorch模型可视化实战:使用PyTorchviz解析网络结构
不同于keras的可视化,。pytorch模型可视化比较复杂,此处使用pytorchviz。
2024-07-08 08:04:03
125
原创 Python结合MobileNetV2:图像识别分类系统实战
图像识别是计算机视觉领域的重要研究方向,它在人脸识别、物体检测、图像分类等领域有着广泛的应用。随着移动设备的普及和计算资源的限制,设计高效的图像识别算法变得尤为重要。MobileNetV2是谷歌(Google)团队在2018年提出的一种轻量级卷积神经网络模型,旨在在保持准确性的前提下,极大地减少模型的参数数量和计算复杂度,从而适用于移动设备和嵌入式系统等资源受限的场景。
2024-07-07 08:28:09
1040
原创 「源码剖析」GPT2模型深度解析:从GPT2LMHeadModel开始
当使用GPT2LMHeadModel类来进行自回归预训练时,其可以传入labels,当GPT2LMHeadModel类中使用GPT2Model类(self.transformer)与输出层self.lm_head计算得出了最终的lm_logits时,lm_logits张量便可以与传入的labels张量利用自回归的方式 (即取(1, n-1)的lm_logits值与(2, n)的label值) 来计算自回归交叉熵损失值loss,自回归交叉熵损失值loss便可以用来反向传播计算梯度,最终优化整个GPT2模型。
2024-07-07 08:27:36
316
原创 阿里灵杰驱动AI新纪元:携手打造增长第二曲线;腾讯「神农模型」荣登CLUE榜首!
最近提出的基于 NeRF 的 GAN 在 3D 感知生成器方面取得了很大进展,但它们还无法生成高质量的图像。本文介绍了 CIPS-3D,这是一种基于样式的 3D 感知生成器,由浅层 NeRF 网络和深层隐式神经表示 (INR) 网络组成。在原始单视图图像上进行训练,CIPS-3D 为 3D 感知图像合成创造了新记录,在 FFHQ 上以 256 美元的分辨率处理图像的 FID 为 6.97,令人印象深刻。论文还展示了 CIPS-3D 的几个有趣方向,例如迁移学习和 3D 感知面部风格化。
2024-07-07 08:27:04
159
原创 大模型浪潮:IDP智能文档处理中的OCR统一策略探索
基于这种架构,UPOCR能够在极小的参数和计算开销下简单而有效地同时处理多样的任务。虽然GPT4-V为代表的多模态大模型技术极大的推进了文档识别与分析领域的技术进展,但并没有完全解决图像文档处理领域面临的问题,还有很多问题值得我们研究,如何结合大模型的能力,更好的解决IDP的问题,值得我们做更多的思考和探索。综上所述,UPOCR提出了一种简单而有效的统一像素级OCR接口,其采用基于ViT的编码器-解码器,通过可学习的任务提示来处理各种任务,在文本去除、文本分割和篡改文本检测等任务上都表现出极高的性能。
2024-07-06 22:16:33
709
原创 深度解析:Baichuan2模型源码逐行解读
拿到整个 BaichuanModel的输出后,shape是 [bs, seqlen, dmodel],还需要变换到 vocab_size这个空间,所以还需要接一个线性映射层,这部分代码在 BaichuanForCausalLM 中的 forward方法里,这里截取片段进行分析。核心的模型结构在 BaichuanModel 中,是多个 MHA多头Attention模块堆叠起来的 Decoder架构,下面是 BaichuanModel的代码解析。这个文件进行分析,以下是核心的几个类的关系。
2024-07-06 22:16:01
267
原创 2014年探索:GBDT+LR组合模型,自动化特征工程与端到端训练实践
FFM模型采用引入特征域的方式增强了模型的特征交叉能力,但无论如何, FFM只能做二阶的特征交叉,如果继续提高特征交叉的维度,会不可避免地产生 组合爆炸和计算复杂度过高的问题。那么,有没有其他方法可以有效地处理高维 特征组合和筛选的问题呢?2014年,Facebook提出了基于GBDT+LR组合模型 的解决方案。GBDT+LR 使用最广泛的场景是CTR点击率预估,即预测当给用户推送的广告会不会被用户点击。
2024-07-06 22:15:29
521
原创 【浦语大模型开源探索】InternLM实战营第二期:技术笔记与全链路解析
InternLM2是一个开源的大型语言模型(LLM),它在多个维度和基准测试中展现出了超越先前方法的能力。该模型通过创新的预训练和优化技术,在长序列建模和开放性主观评估方面表现突出。报告详细阐述了InternLM2的基础设施、模型结构、预训练数据、预训练设置、预训练阶段、对齐策略、评估和分析等内容。主要贡献模型开源与发布InternLM2以不同规模(18亿、70亿和200亿参数)的模型形式公开发布,这些模型在主观和客观评估中都展现出了卓越的性能。
2024-07-02 09:35:37
1040
原创 PyTorch实现Transformer模型:TransFG之modeling.py解析
此处有多个注意力抽头,有的文章强调,多个注意力抽头可以将嵌入向量映射到不同的空间,也就是可以关注不同的信息。害,神奇,不知道他能关注姿态么?
2024-07-02 09:35:05
156
原创 提升ChatGLM效能:仅需简单模型调整
笔者在查看 ChatGLM 原始模型的源码[2]时,发现 ChatGLM 与 Optimum ModelForCasualML并不兼容,而是定义了新的类 ChatGLMForConditionalGeneration[3]。该模型的流水线回路包含 3 个主要模块(Embedding、GLMBlock 层[4]△图1 ChatGLM 模型结构如上图所示,整个流水线实际要求模型有两个不同的执行图,使用输入提示符进行首次推理时不需要 KV 缓存作为 GLMBlock 层的输入。
2024-07-02 09:34:32
719
原创 手把手教你搭建PyTorch环境:MindStudio中PyTorch模型开发实战
1) 从gitee获取Pytorch源码。 如果clone命令失败,可以使用以下命令重新安装git。apt update; 此外,也可以在Ascend仓库中查看Pytorch源码,链接为:https://gitee.com/ascend/pytorch2) 根据需要切换分支并获取PyTorch源代码。AscendPytorch版本CANN版本支持PyTorch版本2.0.2CANN 5.0.21.5.02.0.3CANN 5.0.3。
2024-07-01 21:06:51
680
原创 Open AI GPT大模型深度解析:通往智能的里程碑
人工智能技术的快速发展引发了对智能系统和应用的巨大需求。多模态大模型已经成为了人工智能领域的重要研究方向之一。OpenAI作为一家全球领先的人工智能公司,在推动人工智能技术的边界上发挥着重要作用,其在大模型方面的研究和应用也是一直处于领先地位。本文将介绍 Open AI 多模态大模型的研究成果和应用,探讨其在人工智能领域的重要性和影响力,以及给世界带来的可能性。本文详实地介绍OpenAI大模型组的发展历程、大模型的类型、基本原理和应用场景。从中可以更好地理解该技术的发展过程以及创新的推动力。
2024-07-01 21:06:18
677
原创 深入解析:SimCLRv2——大规模自监督学习在半监督任务中的威力
这两个图像通过编码器网络f进行编码,以生成表示,然后再次使用非线性变换网络g(projection head)进行变换,该MLP具有完全连接的层和ReLu激活功能,该网络使用对比损失进行训练,该对比损失使用余弦相似度,该余弦相似度负责使正值之间的差异最小化,同时使负值之间的差异最大化。经过无监督的预训练后,标记的样本现在用于微调网络。与SimCLR不同,v2使用了一个独特的方法,包括使用了无监督预训练、有监督的微调和未标记数据的蒸馏,使其成为视觉任务中的一个强大的基准,远远领先于最新的技术。
2024-07-01 21:05:46
394
原创 华为昇腾NPU实战:LLM ChatGLM2模型推理体验
参考:https://gitee.com/mindspore/mindformers/blob/dev/docs/model_cards/glm2.md#chatglm2-6b。
2024-06-29 10:39:29
258
原创 PyTorch实现Seq2Seq模型详解
Seq2Seq是一种循环神经网络的变种,是一种端到端的模型,包括 Encoder编码器和 Decoder解码器部分,在nlp任务中是一种重要的模型,在翻译,文本自动摘要生成和机器人自动问答以及一些回归预测任务上有着广泛的运用。Seq2Seq其实就是结构的网络,它的输入是一个序列,输出也是一个序列。在Encoder编码中,将序列转换成一个固定长度的向量,然后通过Decoder将该向量转换成我们想要的序列输出出来Encoder和Decoder一般都是RNN,通常为LSTM或者GRU。
2024-06-29 10:38:46
675
原创 PyTorch深度学习:模型优化与进阶技巧探索
PyTorch在torch.nn模块提供了许多常用的损失函数,如:MSELoss、L1Loss、BCELoss等,但是随着深度学习的发展或研究的需求,需要提出一些新的损失函数,因此我们需要知道如何自定义损失函数。以函数方式定义以类方式定义,推荐使用在实际工程中,使用面向对象的思想可以提高代码的可用性,因此以类方式定义损失函数更加常用,因此这里观察torch中的Loss函数的继承关系,可以发现它们部分继承自_loss,部分继承自,而继承自_loss_loss继承自nn.Module。
2024-06-29 10:38:15
532
原创 PyTorch实战:LSTM编码解码器构建Seq2Seq模型解析
仍然先上代码,接上一篇文章,这里将Seq2Seq模型个构建采用Encoder类和Decoder类融合起来。主要是为了后面的Attention作铺垫。
2024-06-28 22:09:59
166
原创 PyTorch模型转换实战:从 torch到ONNX 深度解析
注意,开始保存出的model.pt在pc端C++载入的时候报错,发现torch版本是1.0.0,更新为1.1.0之后转出来的pt文件即可正确读取。
2024-06-28 22:09:27
92
原创 LLaMA2模型训练加速秘籍:700亿参数效率提升195%!
对于并行策略,已支持以下多种并行方式:张量并行、流水线并行、序列并行、数据并行、Zero 数据并行等,并可将多种并行方式组合使用,只需通过简单的配置命令,即可适配各种复杂的硬件环境 / 模型。而 Colossal-AI 则因卓越的系统优化和扩展性,仍能保持良好性能,训练提速 195%。为了进一步提升开发和部署效率,Colossal-AI 团队还将上述系统优势与算力结合,提供 Colossal-AI 云平台,提供廉价算力和开箱即用的 AI 主流应用,包括对话大模型,多模态模型,生物医药等,现已开启内测。
2024-06-28 22:08:55
911
原创 Transformer模型深度解析:GenerationMixin生成模块探秘
input_ids:对于encoder-decoder模型(例如:T5),input_ids用于encoder输入,生成encoder_outputs特征;对于decoder模型(例如:GPT3),input_ids用于提示词,如果input_ids为None,则初始化为bos_token_iddecoder_input_ids:用于encoder-decoder模型中decoder模块的输入max_new_tokens:最大可以生成的新词,和max_length作用一致,不同时使用。
2024-06-26 08:50:16
262
原创 DeepMindGemini挑战GPT-4:全新人工智能顶峰,规模最大能力最强
2023 年 12 月 06 日12 分钟阅读让人工智能为每个人提供更多帮助谷歌和 Alphabet 首席执行官谷歌 DeepMind 首席执行官兼联合创始人由谷歌 DeepMind 首席执行官兼联合创始人 Demis Hassabis 代表 Gemini 团队撰写和我的许多研究同事一样,人工智能一直是我毕生工作的重点。自从少年时代为电脑游戏编写人工智能程序,以及多年来作为神经科学研究员试图了解大脑的工作原理以来,我一直坚信,如果我们能制造出更智能的机器,就能利用它们以不可思议的方式造福人类。
2024-06-26 08:49:44
894
基于C#的可视化银行家算法
2024-06-22
基于scikit-learn SVM算法实现对新闻的文本分类
2024-06-22
基于ssm框架+微信小程序的汽车预约维修系统项目源码
2024-06-21
基于ssm框架+微信小程序的餐具销售系统项目源码
2024-06-21
基于ssm框架+微信小程序的计算机实验室排课与查询系统项目源码
2024-06-21
基于ssm框架+微信小程序的电影院订票选座系统项目源码
2024-06-20
基于ssm框架+微信小程序的小区租拼车管理信息系统项目源码
2024-06-20
基于ssm框架+微信小程序的家政平台项目源码
2024-06-20
基于ssm框架+微信小程序的大学生闲置物品交易平台项目源码
2024-06-19
基于ssm框架+微信小程序的考研论坛项目源码
2024-06-19
基于springboot框架+微信小程序的社区医院宣传系统项目源码
2024-06-19
基于ssm框架+微信小程序的健身房私教预约系统项目源码
2024-06-18
基于ssm框架+微信小程序的互助学习小程序的设计与实现项目源码
2024-06-18
基于ssm框架+微信小程序的考试系统项目源码
2024-06-18
基于ssm框架+微信小程序的在线投稿系统项目源码
2024-06-15
基于ssm框架+微信小程序的智能社区服务项目源码
2024-06-15
基于ssm框架+微信小程序的马拉松报名系统项目源码
2024-06-15
基于php框架+微信小程序的购物系统项目源码
2024-06-14
基于ssm框架+微信小程序的四六级词汇学习项目源码
2024-06-14
基于ssm框架+微信小程序的追星小程序项目源码
2024-06-14
基于ssm框架+微信小程序的校园综合服务平台项目源码
2024-07-16
基于ssm框架+微信小程序的校车购票系统项目源码
2024-07-16
基于ssm框架+微信小程序的社区养老服务项目源码
2024-07-16
基于ssm框架+微信小程序的影院选座系统项目源码
2024-07-02
基于ssm框架+微信小程序的警务辅助人员管理系统项目源码
2024-07-02
基于ssm框架+微信小程序的大学生心理健康服务项目源码
2024-07-02
基于ssm框架+微信小程序的体育报名系统项目源码
2024-07-01
基于ssm框架+微信小程序的跑腿预约平台项目源码
2024-07-01
基于ssm框架+微信小程序的远程在线诊疗系统项目源码
2024-07-01
基于ssm框架+微信小程序的培训咨询平台项目源码
2024-06-26
基于ssm框架+微信小程序的网上商城项目源码
2024-06-26
基于ssm框架+微信小程序的学生知识成果展示与交流平台项目源码
2024-06-26
基于ssm框架+微信小程序的停车场系统项目源码
2024-06-25
基于ssm框架+微信小程序的生鲜云订单零售系统项目源码
2024-06-25
基于ssm框架+微信小程序的家政服务管理系统项目源码
2024-06-25
基于springboot框架+微信小程序的预防接种预约系统项目源码
2024-06-24
基于ssm框架+微信小程序的旅游平台开发项目源码
2024-06-24
基于ssm框架+微信小程序的会议发布与预约系统项目源码
2024-06-24
使用numpy从零搭建深度神经网络(DNN)
2024-06-23
Python爬虫获取小说信息(带实验报告)
2024-06-23
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人