使用LeNet网络训练Caltech101数据集

 

1. 下载caltech101数据集

caltech101(101类图像数据库)数据集

下载数据集地址:caltech101数据集

点击 101_ObjectCategories.tar.gz (131Mbytes)下载数据集

 

2.将下载的tar.gz文件上传到 caffe/data目录下,到对应的目录下执行命令:

 

解压缩。

caffe数据集的创建需要两个文件: train.txt 和 val.txt, 格式为 图片路径+类别编号

这里用用运行gettxt.py自动生成train.txt和val.txt,gettxt.py的代码如下:

#!/usr/bin/env python
# -*- coding:utf-8 -*-
import os


root = os.getcwd() #获取当前路径
data = '101_ObjectCategories'  #101数据集的文件夹名称
path = os.listdir(root+'/'+ data) #显示该路径下所有文件
path.sort()
vp = 0.1 #测试集合取总数据前10%
ftr = open('train.txt','w')
fva = open('val.txt','w')
i = 0
 
for line in path:
    subdir = root+'/'+ data +'/'+line
    childpath = os.listdir(subdir)
    mid = int(vp*len(childpath))
    for child in childpath[:mid]:
        subpath = data+'/'+line+'/'+child;
        d = ' %s' %(i)
        t = subpath + d
        fva.write(t +'\n')
    for child in childpath[mid:]:
        subpath = data+'/'+line+'/'+child;
        d = ' %s' %(i)
        t = subpath + d
        ftr.write(t +'\n')
    i=i+1

ftr.close()  #关闭文件流
fva.close()   

3 运行gettxt.py文件:到caffe/data输入命令目录下:python gettxt.py

结果如下:

4 生成lmdb文件

mkdir calt101net   #  在caffe/examples下建立一个新文件夹

caffe/examples/imagenet下的create_imagenet.sh 复制到calt101net中

修改create_imagenet.sh内容:

5 运行  ./examples/calt101net/create_imagenet.sh  生成lmdb文件,运行结果如下图所示

6 把  caffe/examples/mnist下的lenet_train_test.prototxt,lenet_solver.prototxt,train_lenet.sh复制到calt101net中。

修改lenet_train_test.prototxt

修改lenet_solver.prototxt

修改train_lenet.sh

7 训练网络

使用命令:

 

 

 

 

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用SVM对Caltech101数据集进行图像分类的步骤如下: 1. 数据预处理:将每个图像转换为固定大小(如224x224),并进行标准化处理,使其在各个维度上具有相同的尺度。 2. 特征提取:可以使用SIFT、HOG等手工设计的特征,也可以使用训练的深度学习模型进行特征提取。 3. 数据划分:将数据集划分为训练集测试集,一般采用80%的数据用于训练,20%用于测试。 4. 模型训练使用SVM对训练集进行训练,可以使用交叉验证等方法进行参数调优。 5. 模型测试:使用测试集对模型进行测试,计算分类准确率等指标。 下面是一个使用SVM对Caltech101数据集进行图像分类的示例代码: ```python from sklearn import svm from sklearn.metrics import accuracy_score from sklearn.model_selection import train_test_split # 加载数据集 from sklearn.datasets import fetch_caltech101 caltech101 = fetch_caltech101() # 数据预处理 X = caltech101.data / 255. y = caltech101.target # 特征提取 # 这里使用PCA进行降维,将原始的3072维特征降到100维 from sklearn.decomposition import PCA pca = PCA(n_components=100) X = pca.fit_transform(X) # 数据划分 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 模型训练 clf = svm.SVC(kernel='linear') clf.fit(X_train, y_train) # 模型测试 y_pred = clf.predict(X_test) acc = accuracy_score(y_test, y_pred) print('Accuracy: {:.2f}%'.format(acc*100)) ``` 需要注意的是,这只是一个示例代码,实际使用时需要根据具体情况调整参数和特征提取方法等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值