ikinono
码龄6年
关注
提问 私信
  • 博客:6,321
    6,321
    总访问量
  • 7
    原创
  • 133,036
    排名
  • 37
    粉丝
  • 0
    铁粉
  • 学习成就

个人简介:计算机视觉CV

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:山东省
  • 毕业院校: 山东工商学院
  • 加入CSDN时间: 2018-09-16
博客简介:

weixin_43217276的博客

查看详细资料
  • 原力等级
    成就
    当前等级
    1
    当前总分
    93
    当月
    5
个人成就
  • 获得55次点赞
  • 内容获得5次评论
  • 获得48次收藏
  • 代码片获得402次分享
创作历程
  • 6篇
    2024年
  • 1篇
    2022年
成就勋章
兴趣领域 设置
  • Python
    pythonnumpy
  • 人工智能
    opencvpytorch
  • 运维
    linux
创作活动更多

AI大模型如何赋能电商行业,引领变革?

如何使用AI技术实现购物推荐、会员分类、商品定价等方面的创新应用?如何运用AI技术提高电商平台的销售效率和用户体验呢?欢迎分享您的看法

179人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

⭐使用yolov10完成预训练模型测试!⭐

说着玩的,打开app.py,查看最后一行,查找gradio官方文档找到gradio_app.launch,一顿学习,打开。下面(还原原来的结构),然后把jiameslahm文件夹整个放入yolov10的根目录下面,打开。下次有空说说如何训练自己的数据集得出模型文件,如何部署自己的模型文件,进入yolov10目录,使用Anaconda创建环境并安装所需依赖项。进入yolov10目录,跑一个demo试试实力,注意缩进,保存退出,再次运行。直接崩溃,不学了,!回车,能够得到界面如下。注意缩进,保存退出。
原创
发布博客 2024.08.02 ·
785 阅读 ·
9 点赞 ·
0 评论 ·
5 收藏

【GitHub 6.8k⭐项目】手把手教你使用AI自动通关宝可梦

这里使用windows的Anaconda环境测试项目,首先克隆项目,下载到主文件夹下(也就是文件夹下)。google上能搜索到,解压后名字改为。
原创
发布博客 2024.07.31 ·
322 阅读 ·
5 点赞 ·
0 评论 ·
2 收藏

使用Ollama配置本地微调的gguf模型文件

在之前的文章中,我们已经得到了经过我们微调的大语言模型,不管是在本地部署使用或者是用OpenWebUI界面部署在服务器上达到和chatGPT界面类似的效果,使用Ollama部署一定是最好的选择。以下均为在Ubuntu系统(Linux)上的测试。
原创
发布博客 2024.07.30 ·
1689 阅读 ·
11 点赞 ·
0 评论 ·
18 收藏

使用llama.cpp量化大语言模型

其中./your_hf_model_file为你的hf或者gguf格式的模型文件文件夹地址,llama.cpp还支持多种模型格式转换方法,可以去github项目地址自行查看,其中./mymodel/yourmodel.gguf是输出文件夹的地址和输出的gguf格式文件名称,记得一定要以.gguf结尾。在之前的教程中,我们提到了unsloth微调的办法,那时候保存的模型直接为.safetensors格式的,所以我们要先将其转换为gguf FP16格式格式。
原创
发布博客 2024.07.29 ·
412 阅读 ·
11 点赞 ·
0 评论 ·
2 收藏

深度学习常用的linux系统(Ubuntu)操作指令(持续更新~)

5.设置权限 chmod +x Anaconda3-5.3.0-Linux-x86_64.sh。1.找到自己需要的版本在网站https://repo.anaconda.com/archive/2.添加路径 export PATH=/home/anaconda3/bin:$PATH。6.运行 ./Anaconda3-5.3.0-Linux-x86_64.sh。import os // 设置环境变量,下载器就会使用镜像站。七、cuda12.1的anaconda 的pytorch。
原创
发布博客 2024.07.28 ·
411 阅读 ·
9 点赞 ·
0 评论 ·
6 收藏

使用unsloth本地微调开源大模型步骤

这里我选择huggingface上的数据集下载下来:Seikaijyu/Beautiful-Chinese,也可以自定义自己的数据集,只要是json格式的就行,可以使用以下chatGPT的插件Alpaca Dataset制作自己的数据集,将模型文件和数据集都放到unsloth根目录中,其中的fine-tuning.py为微调脚本,在我们之前设置的环境中运行,出现的lora_model文件夹就是生成的lora模型,output文件夹中为微调的大模型。从huggingface(
原创
发布博客 2024.07.28 ·
873 阅读 ·
6 点赞 ·
0 评论 ·
11 收藏

在120枚外观相同的硬币中,有一枚是假币,并且已知假币与真币的重量不同,但不知道假币与真币相比较轻还是较重。可以通过一架天平来任意比较两组硬币,最坏情况下,能不能只比较5次就检测出这枚假币?

在120枚外观相同的硬币中,有一枚是假币,并且已知假币与真币的重量不同,但不知道假币与真币相比较轻还是较重。可以通过一架天平来任意比较两组硬币,最坏情况下,能不能只比较5次就检测出这枚假币?
原创
发布博客 2022.10.18 ·
1817 阅读 ·
4 点赞 ·
5 评论 ·
4 收藏