- 博客(35)
- 收藏
- 关注
原创 PubChem介绍及API及PubChempy
PubChem,即有机小分子生物活性数据,是一种化学模组的数据库,由美国国家健康研究院( US National Institutes of Health,NIH)支持,美国国家生物技术信息中心负责维护。PubChem Compound用于存储整理后的化合物化学结构信息PubChem Substance用于存储机构和个人上传的化合物原始数据PubChem Bioassay用于存储生化实验数据,实验数据来自于高通量筛选和文献。
2023-06-05 11:11:54 4950
原创 2022-Deep generative molecular design reshapes drug discovery-分子生成设计重塑药物发现
随着科技的发展,人工智能(AI)和深度生成模型的最新进展和成就已经确立了其在医学应用中的实用性,特别是在药物发现和开发方面。为了正确应用人工智能,开发人员和用户面临着诸如要考虑哪些协议、要仔细检查哪些因素以及深度生成模型如何整合相关学科等问题。这篇综述是2022年10月发表在“Cell Resports Medicine”杂志上的,IF=16.988。这篇综述总结了经典和新开发的人工智能方法,为广泛的计算药物发现和开发社区提供了更新且易于访问的指南。
2023-05-30 16:30:56 2097
原创 进化算法——蛙跳算法Python代码
进蛙跳算法Python代码蛙跳算法原理Python代码参考文献蛙跳算法原理假设种群个数为 chromnumchromnumchromnum , 分组个数为 groupnumgroupnumgroupnum,那么每个组中的个体数量为 chromnum/groupnumchromnum / groupnumchromnum/groupnum。种群分组策略:先获得种群的适应度值,将适应度值从大到小排序,然后按照顺序依次分组,即排序第一为第一组第一个,排序第二位第二组第二个。。。直至分组完成。假设一个种
2021-03-15 09:40:14 2158
转载 Python基础语法——Matplotlib基础教程
Python基础语法——Matplotlib基础教程转载于此,包括各种图形的绘制,各种参数的说明等,非常详细
2021-03-14 18:46:12 229
原创 Python基本语法——numpy和torch中randint的使用记录
在使用过程中发现了torch和numpy中的randint的差别,特此记录torch.randint() size参数不可省略,并且生成一维数组时,需要在后面加上逗号,否则会报错。import numpy as npimport torch as tn1 = np.random.randint(low=0, high=10, size=(3,5), dtype=int)t1 = t.randint(low=0, high=10, size=(3,5), dtype=int).cuda()p
2021-03-14 10:03:16 2591 1
转载 Python基本语法——模型的保存torch.save()
转载pytorch保存模型等相关参数,利用torch.save(),以及读取保存之后的文件
2021-03-07 18:28:59 4230
原创 Python基本语法——shape和size的区别和联系
Python基本语法——shape和size的区别和联系shape和size的区别和联系参考文献shape和size的区别和联系注意: shape和size都是numpy模块中的函数由下面我们可以看出,shape得到了数组的形状,size统计了数组总共的大小,而size也可以在某个轴上进行统计,这样也就达到了得到数组某个轴上形状的目的。 chrom = np.random.random(size=[5,3]) print(chrom) print('*'*20, '属性',
2021-03-02 10:38:56 5325
原创 python 基本语法——随机数的生成 torch & numpy
python 基本语法——随机数的生成 torch & numpy生成随机数Torch1. torch.rand 均匀分布2. torch.randn 标准正态分布3. torch,normal(means, std) 离散正态分布4. torch.linsapce(start, end, steps=100) --> Tensor 线性间距向量Numpy1. 生成器2. 简单随机数1. np.random.rand() 均匀分布2. np.random.randn() 标准正态分布3. np
2021-02-28 19:00:52 2274 1
原创 python基本语法——数据拼接操作(numpy & torch)
python基本语法——数据拼接操作(numpy & torch)一、数组拼接Torch1. torch.cat2. Torch.stack 用于在某个维度上相同的数组的拼接Numpy拼接1. np.concatenate()2. np.vstack() 按垂直方向(行顺序)堆叠数组构成一个新数组3. np.hstack() 按水平方向(列顺序)堆叠数组构成一个新的数组二、数组操作1. torch.sum2. 举例说明,寻找两个数组(具有相同的列)分别满足条件的个数3. 对齐输出一、数组拼接To
2021-02-28 18:46:58 1232 2
原创 python基本语法——pickle保存和加载字典
pickle保存和加载字典pickle保存和加载字典参考文章pickle保存和加载字典import pickle as pkld = { 'conv_channels': [6, 16], 'conv_kernel_size': [3, 3], 'pool_kernel_size': 2, 'pool_stride': 2, 'fc_features': [120, 84],}# savewith open('best.pkl', 'wb') as f
2021-02-28 09:01:37 2100
原创 PytorchCNN项目搭建 9--- Git命令上传代码
PytorchCNN项目搭建 9--- Git命令上传代码至Github服务器的新文件夹上传至Github:参考文献服务器的新文件夹上传至Github:先书写 .gitignore 文件,屏蔽一些不需要上传的文件或者文件夹。.idea/.ipynb_checkpoints/cache/__pycache__/*.out然后再开始执行git命令,这些指令都是要在后台的对应的文件夹下运行的。1. git init # git初始化2. git status # 查看现在存储区内容,现在是为
2021-02-22 20:31:52 275
原创 PytorchCNN项目搭建8 -- 反向传播
PytorchCNN项目搭建8 -- 反向传播反向传播原理反向传播代码1. 激活函数2. 全连接层3. 卷积层4. 池化参考文献反向传播原理主要原理部分可以参考1&2反向传播代码反向传播可以分为激活函数、全连接层、卷积层、池化层等。1. 激活函数class Relu: def __init__(self): self.mask = None def forward(self,x): self.mask = (x<=0)
2021-02-22 19:56:05 362
原创 PytorchCNN项目搭建 7--- 深度学习模型评估指标 Accuracy,Precision,Recall,ROC曲线
@toc参考文献深度学习模型评估指标
2021-02-21 21:11:44 5713 6
原创 PytorchCNN项目搭建 6--- 训练、验证CNN
PytorchCNN项目搭建 6— 训练、验证CNN整体的代码在我的github上面可以查阅上几次的实验已经下载了数据集,并且写好了models,并进行了一些基础的配置,这次的主要目标是写好训练过程。主要的流程如下:配置args, cfg, log等将之前的数据集datasetset经过DataLoader变成data_loader加载网络net选择损失函数和优化器训练网络,得到损失值lossimport osimport pdbimport argparseimport to
2021-02-20 20:20:44 918
原创 PytorchCNN项目搭建 5--- mmcv_config
PytorchCNN项目搭建 5--- mmcv_configMMCV简单说明最后贴上自己设置的参数代码参考文献整体的代码在我的github上面可以查阅MMCV简单说明mmcv 是python的一个基础库函数,包括:File IO(提供两个通用的接口,用于加载和转储不同形式的文件)Image(采用opencv的方式实现,在使用过程中需要保证OpenCV已经安装)Video(包括视频读取和转换的接口,视频编辑的一些方法以及光流的读取/写/弯曲)这里我主要用到的是Utils中的 Config模
2021-02-09 19:56:58 1004
原创 PytorchCNN项目搭建4---常见的卷积神经网络cnn
PytorchCNN项目搭建4---常见的卷积神经网络cnn常见的卷积神经网络参考文献整体的代码在我的github上面可以查阅常见的卷积神经网络今日的主要目的不是介绍各个CNN的原理等,原理性的介绍很多博主已经解释的很详细了。本文主要目的是如何使用这些models,之后进行训练学习,所以,我会列举几个重要的CNN,给出文章及基本的介绍,大家可以自行查阅。 常见的CNN有:Lenet、Alexnet、VGG、Inception、Resnet等。具体的文章和代码详见参考文献[2]参考
2021-02-09 16:02:54 472 1
原创 PytorchCNN项目搭建3--- Cifar10数据集的处理
Cifar10数据集处理PytorchCNN项目搭建3--- Cifar10数据集的处理前期准备:1. Cifar10数据集从官网下载2. 把训练集转换为图片, 并把图片路径及名称保存到txt文件中,还把训练集按照一定的概率分为训练数据集和验证数据集3. 测试集test_dataset也做同样的处理4. 然后将图片转换成数据集,继承torch.utils.data.Dataset的类进行书写5. 对图像数据进行处理参考文献PytorchCNN项目搭建3— Cifar10数据集的处理整体的代码在我的git
2021-02-07 21:13:10 1391 2
原创 PytorchCNN项目搭建2---Argparse
PytorchCNN项目搭建2—Argparse整体的代码在我的github上面可以查阅argparse 模块可以让人轻松编写用户友好的命令行接口。程序定义它需要的参数,然后 argparse 将弄清如何从 sys.argv 解析出那些参数。argparse 模块还会自动生成帮助和使用手册,并在用户给程序传入无效参数时报出错误信息。import argparse位置参数介绍"""一个简单的例子"""## 此程序需要在命令行运行,然后查看相应的结果parser = argparse.Ar
2021-02-07 20:21:22 314 1
原创 PytorchCNN项目搭建1---Logger日志模块
Logger日志模块Logging Python日志记录工具Logging提供了一些便利的函数:debug(), info(), warning(), error(), critical()一个简单的例子记录日志到文件更改显示消息的格式在消息中显示时间进阶教程配置记录器Example为了之后更好的调用,我们把这个写成一个class类,如下所示:参考文献从今天开始,要进行一个简单的PytorchCNN完整的项目搭建,整体的代码在我的github上面可以查阅这个项目包括基础了logging、argpa
2021-02-03 20:53:58 1008 1
原创 进化算法——遗传算法 使用Geatpy库实现
文章目录Geatpy种群初始化Example进化迭代相关的函数选择 ea.selecting()Example重组 recombin()突变 ea.mutate()数据可视化实验实例新建种群选择交叉变异整合数据重新计算适应度值绘图,保存写成了一个class参考文章及BlogGeatpyimport geatpy as eaimport numpy as np种群初始化crtfld (生成译码矩阵,俗称“区域描述器”)crtbp (创建二进制种群染色体矩阵)crtip (创建元素是整数的种
2021-01-28 11:04:46 4380
原创 Python按照一定比例生成0-1矩阵
按照一定的rate生成0-1矩阵说明:这种方法只是笨办法,仅供参考def get_0_1_array(array,rate=0.2): '''按照数组模板生成对应的 0-1 矩阵,默认rate=0.2''' zeros_num = int(array.size * rate)#根据0的比率来得到 0的个数 new_array = np.ones(array.size)#生成与原来模板相同的矩阵,全为1 new_array[:zeros_num] = 0 #将一部分换为
2020-09-24 20:09:48 6906 2
原创 12 Tensorflow2.x自定义layer层
自定义layer层构建模型分为以下几步:导入数据集,将数据集进行分类、归一化等构建模型模型编译模型训练绘制曲线图在测试集上进行评估自定义损失函数在第2步中方法一:使用子类class 方式自定义dense layerclass CustomizedDenseLayer(keras.layers.Layer): def __init__(self, units, activation=None, **kwargs): self.units = units
2020-09-01 20:54:41 835
原创 11 Tensorflow2.x 自定义损失函数
自定义损失函数构建模型分为以下几步:导入数据集,将数据集进行分类、归一化等构建模型模型编译模型训练绘制曲线图在测试集上进行评估自定义损失函数在第2、3步中'''2.构建模型'''# 自定义损失函数def customized_mse(y_true, y_pred): return tf.reduce_mean(tf.square(y_pred - y_true))model = keras.models.Sequential([ keras.layers.Den
2020-09-01 20:47:03 451
原创 09-10 Tensorflow2.x模型的输入和输出
文章目录1.多输入2.多输出1.多输入此外,训练、验证和测试所有的输入都需要按照模型中的格式进行输入'''2.输入数据划分'''x_train_scaled_wide = x_train_scaled[:, :5]x_train_scaled_deep = x_train_scaled[:, 2:]x_valid_scaled_wide = x_valid_scaled[:, :5]x_valid_scaled_deep = x_valid_scaled[:, 2:]x_test_scale
2020-08-19 18:25:41 1507
原创 08-Tensorflow2.x Wide&Deep模型
文章目录Wide & Deep model简要介绍模型的主要程序,在model建立中介绍如下:1.函数式API ,功能API2.子类API5.完成的程序Wide & Deep model简要介绍模型的主要程序,在model建立中介绍如下:1.函数式API ,功能API# model建立部分# 函数式API 功能APIinput = keras.layers.Input(shape=x_train.shape[1:])hidden1 = keras.layers.Dense(3
2020-08-19 18:00:04 341
原创 04-07 Tensorflow2.0深度神经网络+批归一化+激活函数selu+Dropout
文章目录1.深度神经网络DNN2.批归一化BatchNormalization3.新的激活函数selu4.Dropout防止过拟合1.深度神经网络DNN指多个全连接层进行连接而形成的网络,层数太多不一定性能会更优,反而会下降,这是因为层数太多,参数太多导致了梯度消失2.批归一化BatchNormalization缓解梯度消失3.新的激活函数selu训练时间更短训练性能更高4.Dropout防止过拟合一般在全连接层的最后几层进行使用DropoutAlphaDropout
2020-08-18 22:05:18 509
原创 03-Tensorflow2.0使用callbacks参数和Tensorboard的使用
Tensorflow2.0使用callbacks参数和Tensorboard的使用这篇文章是在上篇文章tensorflow2.0识别fashion_mnist数据集的基础上,在训练(model.fit())时,添加了callbacks参数,主要参数有三个:TensorboardEarlystoppingModelCheckpoint详细代码如下:注:此代码的精确度和上一篇文章相同,这篇文章主要讲解一下Tensorboard#-*- coding:utf-8 _*-import matpl
2020-08-18 18:24:12 1097
原创 02-Tensorflow2.0将数据集进行归一化处理,提高精确度
Tensorflow2.0将数据集进行归一化处理,提高精确度在之前的TF2.0对Fashion_Mnist数据集分类这篇文章中,数据集并没有进行归一化,模型训练结果并不是很好,这次在数据集进行训练之前添加了归一化过程,模型精度提高的非常明显,具体的程序见下:#-*- coding:utf-8 _*-import matplotlib as mplimport matplotlib.pyplot as pltimport numpy as npimport sklearnimport panda
2020-08-18 17:21:22 2948 1
原创 01-Tensorflow2.0对于Fashion-Mnist数据集的训练与编译
Tensorflow2.0对于Fashion-Mnist数据集的训练与编译主要步骤tf.keras.datasets导入fashion_mnist数据集tf.keras.Sequential()搭建模型model.compile()模型编译model.fit模型训练,得到history绘制history曲线图model.evaluate()测试集上测试模型#-*- coding:utf-8 _*-import matplotlib as mplimport matplotlib.pyp
2020-08-18 17:02:51 416
原创 文件操作技术基本用法
文章目录1. 文本文件和二进制文件:2.文件操作相关模块3.创建文件对象4.常见编码方式5.文件的写入步骤6.文件的读取7.二进制文件的读取与写入8.文件对象的常用属性和方法9.使用pickle序列化10.CSV文件的操作11.os与os.path模块os模块os.path模块os.walk() 递归遍历所有文件12.shutil模块(拷贝和压缩)1. 文本文件和二进制文件:文本文件:存储普通字符文本,默认为unicode字符集(两个字节表示一个字符)最多可以表示 65536个二进制文件:内容用“字
2020-08-17 18:33:37 564
原创 TF2_402 tf.data_generate_csv
目录1.生成csv文件1.1 具体函数程序1.2 输出保存的文件名称2.读取csv文件2.1 filename -> dataset2.2 read file -> dataset -> datasets -> merges2.3 parse csvimport matplotlib as mplimport matplotlib.pyplot as plt%matp...
2020-05-03 12:55:00 28
原创 TF2_403 tfrecord文件生成与读取
文章目录1.tfrecord 格式说明1.1 tf.train.Example生成tfrecord格式1.2 生成.zip文件2.tfrecord在具体文件数据中的使用方法(利用[TF2_402生成的的csv文件](https://blog.csdn.net/qq_44783177/article/details/105896582) ,进行tfrecord的读取与生成)2.1 读取csv文...
2020-05-03 11:51:07 704
原创 TF2_402 tf.data_generate_csv
文章目录1.生成csv文件1.1 具体函数程序1.2 输出保存的文件名称2.读取csv文件2.1 filename -> dataset2.2 read file -> dataset -> datasets -> merges2.3 parse csvimport matplotlib as mplimport matplotlib.pyplot as plt%ma...
2020-05-02 22:34:58 422
原创 TF2_401 tf.data-basic-API
001 tf.data-basic-api1. 引入python库,检验自己的环境2.tf.data.Dataset.from_tensor_slices()的使用,支持输入各种类型2.1 输入数组2.2 输入列表2.3 输入字典3.tf.data实现功能3.1 遍历3.2 repeat epoch3.3 get batch3.4 interleave1. 引入python库,检验自己的环境i...
2020-05-02 16:24:04 234
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人