从零开始的baseline学习
初次提交成绩图
初步了解了深度学习进行的步骤
实践思路
- 数据收集和准备:收集具有不同类别标签的脑PET图像数据集。这些图像可以来自已知疾病患者和健康人群。确保数据集中包含足够的样本数量和类别的代表性。
- 数据预处理:对脑PET图像进行预处理,以提高分类模型的性能。预处理步骤可能包括图像去噪、图像增强、图像配准(将图像对齐到一个标准空间)和图像标准化等。
- 特征提取:使用卷积神经网络(CNN)来提取脑PET图像的特征。CNN可以通过学习具有区分性的图像特征来帮助区分不同的疾病状态。通过在CNN中堆叠卷积层、池化层和全连接层,可以提取出高级的抽象特征。
- 模型训练:将预处理后的脑PET图像输入到CNN中进行模型训练。在训练过程中,使用已知的图像标签来进行监督学习,通过调整CNN的权重和偏置来最小化预测错误。常用的训练算法包括梯度下降和反向传播。
- 模型评估和优化:使用预留的测试集对训练好的模型进行评估。评估指标可以包括准确率、精确率、召回率和F1值等。如果模型性能不理想,可以尝试调整CNN的架构、增加训练数据、调整超参数等方法进行优化。
- 脑PET图像分类和疾病预测:使用训练好的模型对新的脑PET图像进行分类和疾病预测。输入脑PET图像到CNN中,通过模型的预测输出来确定图像所属的类别,例如健康或某种特定疾病。
通过图像特征统计方法采集和描述图像的特征信息
1.通过阅读代码基本上理解了代码的思路
- 首先,定义函数随机挑选元素作为图片的特征值,然后计算图片的统计值,判断样本类别
- 选出特征值
random_img = img[:, :, np.random.choice(range(img.shape[2]), 10)]
- #对图片计算统计值
feat = [
(random_img != 0).sum(), # 非零像素的数量
(random_img == 0).sum(), # 零像素的数量
random_img.mean(), # 平均值
random_img.std(), # 标准差
len(np.where(random_img.mean(0))[0]), # 在列方向上平均值不为零的数量
len(np.where(random_img.mean(1))[0]), # 在行方向上平均值不为零的数量
random_img.mean(0).max(), # 列方向上的最大平均值
random_img.mean(1).max() # 行方向上的最大平均值
]
- 其次对训练集和测试集分别提取特征值
- 训练集
train_feat = []
for _ in range(30):
for path in train_path:
train_feat.append(extract_feature(path))- 测试集
test_feat = []
for _ in range(30):
for path in test_path:
test_feat.append(extract_feature(path))
- 对逻辑回归模型进行训练,其中用到了sklearn
- 使用训练集的特征作为输入,训练集的类别作为输出,对逻辑回归模型进行训练。
from sklearn.linear_model import LogisticRegression
m = LogisticRegression(max_iter=1000)
m.fit(
np.array(train_feat)[:, :-1].astype(np.float32), # 特征
np.array(train_feat)[:, -1] # 类别
)- 对测试集进行预测并进行转置操作,使得每个样本有30次预测结果。
test_pred = m.predict(np.array(test_feat)[:, :-1].astype(np.float32))
test_pred = test_pred.reshape(30, -1).T
- 对每个样本的30次预测结果进行投票,选出最多的类别作为该样本的最终预测类别,存储在test_pred_label列表中。
test_pred_label = [Counter(x).most_common(1)[0][0] for x in test_pred]
学习体会
- 这是我第一次接触到深度学习的内容,对代码也只能是初步有一些理解,最后这种对每个样本进行多次预测,最后投票的方法让我联想到枚举法。但事实上,这个代码的效率还算可以,但是准确度不尽如人意,就像提交分数所示,只有差不多一半的正确率,可能是因为特征值的选取太粗糙了,导致形似的图片无法识别。总的来说,我的确学习到了很多知识。