神经网络训练集两张图片之间的相互作用

《神经网络分类训练集的图片到底是如何相互影响的?》中得到了一个经验关系,如果(两张图片)混合后的迭代次数变小了,分类准确率可能变大;如果二者混合后迭代次数变大,分类准确率可能会变小。但上次实验的样本只有8个太少了,这次把1-9所有不重复的36个两两混合全都做出来,检验这个关系是否还成立。

 

第一部分,1张图片和1张图片分类,0[n]和2[1]进行分类

(0[n],2[1])---81*30*2---(1,0)(0,1) n=1,2…9

 

f2[0]

f2[1]

迭代次数n

平均准确率p-ave

δ

耗时ms/次

耗时ms/199次

耗时 min/199

最大准确率p-max

迭代次数标准差

pave标准差

0[1],2[1]

0.502512

0.4974879

43337.065

0.7746286

1.00E-04

1014.0251

201825

3.36375

0.7947316

1714.6271

0.0078051

0[2],2[1]

0.3618366

0.6381634

39428.513

0.6697154

1.00E-04

910.21608

181148

3.0191333

0.6983101

1526.1862

0.0115177

0[3],2[1]

0.0654133

0.9345866

42304.126

0.8722614

1.00E-04

964.87437

192041

3.2006833

0.8812127

1926.7298

0.0034939

0[4],2[1]

0.2412577

0.7587424

41168.382

0.8031534

1.00E-04

941.36683

187332

3.1222

0.8195825

1939.6639

0.00698

0[5],2[1]

0.6281151

0.3718849

44140.638

0.9079193

1.00E-04

993.55276

197718

3.2953

0.917992

1808.8097

0.0039003

0[6],2[1]

0.0704375

0.9295625

43375.829

0.8471657

1.00E-04

971.34673

193298

3.2216333

0.8593439

1993.3655

0.0046175

0[7],2[1]

0.2312094

0.7687906

40382.593

0.8858857

1.00E-04

935.49246

186179

3.1029833

0.9000994

1797.8539

0.0049712

0[8],2[1]

0.2261853

0.7738147

40953.844

0.9054492

1.00E-04

948.52764

188757

3.14595

0.9130219

1721.9027

0.0032987

0[9],2[1]

0.3166195

0.6833805

45157.543

0.8177193

1.00E-04

1041.9899

207357

3.45595

0.8369781

1948.7476

0.0062181

 

第二部分,两张图片和1张图片分类,0[n,m]和2[1]进行分类

(0[n,m],2[1])---81*30*2---(1,0)(0,1) n=1,2…9,m=1,2…9,n≠m

n

m

f2[0]

f2[1]

迭代次数n

平均准确率p-ave

δ

耗时ms/次

耗时ms/199次

耗时 min/199

最大准确率p-max

迭代次数标准差

pave标准差

1

2

0.9999

9.96E-05

30919.08

0.832275

1.00E-04

715.6432

142421

2.373683

0.849404

1988.477

0.006317

1

3

0.793911

0.206089

45815.48

0.811398

1.00E-04

1015.819

202155

3.36925

0.823062

1917.266

0.005343

1

4

0.9999

9.96E-05

36274.74

0.814378

1.00E-04

808.8442

160973

2.682883

0.832008

2249.417

0.005598

1

5

0.994876

0.005124

41817.56

0.858782

1.00E-04

927.1759

184513

3.075217

0.870278

2149.949

0.004421

1

6

0.557778

0.442223

47636.92

0.775208

1.00E-04

1053.372

209630

3.493833

0.789761

2122.903

0.005359

1

7

0.999901

9.96E-05

34923.28

0.871717

1.00E-04

777.7136

154774

2.579567

0.880716

2259.736

0.00372

1

8

0.9999

9.96E-05

38414.16

0.864631

1.00E-04

852.9849

169747

2.829117

0.877237

2230.174

0.005252

1

9

0.964732

0.035269

44078.99

0.830966

1.00E-04

977.3719

194508

3.2418

0.843439

2609.696

0.005355

2

3

0.9999

9.96E-05

36070.77

0.891283

1.00E-04

804.7538

160158

2.6693

0.898111

2510.826

0.002865

2

4

0.984828

0.015172

39135.39

0.855717

1.00E-04

872.2814

173591

2.893183

0.867793

2325.469

0.004345

2

5

0.9999

9.94E-05

31163.81

0.909071

1.00E-04

698.8945

139082

2.318033

0.917992

1919.277

0.003495

2

6

0.9999

9.96E-05

34042.07

0.878341

1.00E-04

761.1508

151481

2.524683

0.888171

2293.658

0.003757

2

7

0.854201

0.145799

40396.43

0.899912

1.00E-04

900.2814

179166

2.9861

0.91501

2129.306

0.004996

2

8

0.924539

0.075461

39455.15

0.918614

1.00E-04

879.4874

175026

2.9171

0.927435

2474.915

0.002937

2

9

0.999901

9.95E-05

31021.66

0.880983

1.00E-04

697.5779

138822

2.3137

0.889662

1969.136

0.003674

3

4

0.834104

0.165896

42371.03

0.84521

1.00E-04

941.8342

187429

3.123817

0.856859

2032.874

0.004772

3

5

0.9999

9.96E-05

42642.03

0.848622

1.00E-04

948.4774

188756

3.145933

0.859344

2193.462

0.003914

3

6

0.894394

0.105606

39732.69

0.862858

1.00E-04

887.0754

176535

2.94225

0.87326

2180.379

0.003827

3

7

0.9999

9.97E-05

33877.87

0.891555

1.00E-04

760.4171

151331

2.522183

0.900596

2302.279

0.002934

3

8

0.9999

9.97E-05

33148.47

0.89402

1.00E-04

741.4824

147565

2.459417

0.902584

2385.352

0.002749

3

9

0.9999

9.97E-05

38292.14

0.858627

1.00E-04

853.995

169953

2.83255

0.867793

2060.82

0.003613

4

5

0.9999

9.96E-05

34957.4

0.87329

1.00E-04

782.6734

155765

2.596083

0.88171

2099.655

0.003831

4

6

0.979804

0.020196

42059.64

0.807941

1.00E-04

943.3518

187731

3.12885

0.819085

2333.668

0.004529

4

7

0.849177

0.150823

41524.17

0.882242

1.00E-04

921.7638

183438

3.0573

0.892644

2018.916

0.003864

4

8

0.542705

0.457295

43553.13

0.890559

1.00E-04

965.6533

192173

3.202883

0.899602

1770.9

0.002982

4

9

0.999901

9.96E-05

38592.36

0.842575

1.00E-04

860.5025

171249

2.85415

0.850398

2099.758

0.003865

5

6

0.793911

0.206089

47012.42

0.814008

1.00E-04

1041.698

207306

3.4551

0.825547

1892.693

0.005134

5

7

0.9999

9.95E-05

31061.31

0.912185

1.00E-04

694.4623

138203

2.303383

0.92495

2118.422

0.003318

5

8

0.9999

9.96E-05

34186.52

0.89408

1.00E-04

761.9447

151633

2.527217

0.904076

2013.488

0.003787

5

9

0.733622

0.266378

49131.08

0.836069

1.00E-04

1086.608

216246

3.6041

0.848907

1938.177

0.005493

6

7

0.9999

9.96E-05

31905.77

0.877831

1.00E-04

710.4422

141381

2.35635

0.890656

2335.202

0.003411

6

8

0.9999

9.97E-05

27614.06

0.877374

1.00E-04

619.0553

123200

2.053333

0.888171

2024.476

0.003584

6

9

0.82908

0.17092

43056.9

0.842146

1.00E-04

955.7236

190198

3.169967

0.85338

1803.45

0.004121

7

8

0.673332

0.326668

40492.29

0.918529

1.00E-04

897.5075

178614

2.9769

0.927435

2087.224

0.002911

7

9

0.9999

9.95E-05

28488.88

0.88651

1.00E-04

636.8894

126746

2.112433

0.896123

2125.783

0.003956

8

9

0.999901

9.96E-05

24442.83

0.86826

1.00E-04

552.7085

109995

1.83325

0.875746

1947.237

0.003962

第一组数据就是用0的第1张图片和第2张图片和2的第1张图片组成训练集分类。

 

比较第二部分数据,图片两两混合以后有15个分类准确率变大了,占总数的41.7%。二者混合以后分类准确率在二者之间的有18个,占总数的50%。而二者混合是分类准确率变小的情况只出现了3次,只占8.3%。这个数据表明二者混合以后分类准确率大概率的是会增加。

比较3次分类准确率减小的事件,

n

m

f2[0]

f2[1]

迭代次数n

平均准确率p-ave

3

5

0.9999

9.96E-05

42642.03

0.848622

5

6

0.793911

0.206089

47012.42

0.814008

5

8

0.9999

9.96E-05

34186.52

0.89408

在这仅有的3次分类准确率减小事件当中,迭代次数出现了所有3种变化的可能,有混合后迭代次数变大的如[5,6],也有混合后迭代次数变小的[5,8],也有混合后迭代次数位于二者之间的如[3,5].表明二者混合后迭代次数变大并不必然会导致分类准确率变小,也表明混合后迭代次数变小也并不必然导致分类准确率变小。

 

比较迭代次数

有23次混合后迭代次数减小,占63.8%,有5次位于二者之间,占13.8%,有8次迭代次数比二者都大,占22%。从占比上看混合后迭代次数大概率的是会降低。在23次迭代次数降低的事件中有11次分类准确率是增大的,占47.8%,有11次分类准确率位于二者之间,有1次是减小的。

 

所以两张图片混合后大概率的迭代次数是会降低,而分类准确率会上升。

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
在 MATLAB 中,使用神经网络进行训练需要准备好训练集训练集是一组输入和对应的输出样本,用于训练神经网络模型。以下是一些准备训练集的步骤: 1. 收集数据:根据你的问题和应用场景,收集与输入变量相关的数据,并记录每个输入变量对应的输出。 2. 数据预处理:对收集到的数据进行预处理,包括数据清洗、去噪、归一化等操作,以提高神经网络训练效果。 3. 划分训练集和测试集:将整个数据集划分为训练集和测试集。训练集用于训练神经网络模型,而测试集用于评估模型的性能。 4. 数据编码:根据需要,对输入和输出数据进行编码。例如,如果你的输出是分类问题,可以使用独热编码将其转换为向量形式。 5. 创建神经网络:使用 MATLAB 的神经网络工具箱创建一个适合你问题的神经网络模型。可以选择不同的网络结构和激活函数。 6. 配置训练参数:设置神经网络训练参数,例如学习率、迭代次数、正则化参数等。 7. 训练模型:使用训练集神经网络模型进行训练。你可以使用 MATLAB 提供的 `train` 函数或其他相应的函数进行训练。 8. 评估模型:使用测试集评估已训练的模型的性能。可以计算准确率、召回率、F1值等指标来评估模型的效果。 以上是训练神经网络时准备训练集的一般步骤,具体操作可以根据你的问题和数据集进行调整。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

黑榆

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值