![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
python
JL_Jessie
这个作者很懒,什么都没留下…
展开
-
sigmoid Vs softmax
在逻辑回归模型中,我们可以使用sigmoid进行二分类,也可以使用softmax进行多分类。但是这两个有什么区别呢?1. sigmoid functionF(xi)=11+exp(−xi)F(x_i) = \frac {1}{1+exp(-x_i)}F(xi)=1+exp(−xi)1sigmoid 函数是把输入单独转成0到1之间的输出properties of sigmoid functionsigmoid 函数返回一个真是的输出值sigmoid函数的一阶导数是非负数或者非正。(非原创 2020-12-11 11:03:44 · 209 阅读 · 0 评论 -
python 用joblib保存训练模型
在机器学习中,我们训练模型后,需要把模型保存在本地,采用joblib来保存。import joblib#保存模型def save_model(model, filepath): joblib.dump(model, filename=filepath)def load_model(filepath): model = joblib.load(filepath) return model...原创 2020-10-11 15:20:00 · 2251 阅读 · 0 评论 -
Python 一些内置函数的用法
chain函数串联a和b,兼顾内存效率同时写法更加优雅。from itertools import chaina = [1,3,5,0]b = {'a':1,'b':2}for i in chain(a,b): print(i)#result:1,3,5,0,a,bfor i in chain(a,b.values()): print(i)#result:1,3,5,0,1,2c = '2,4,6'for i in chain(a,c): print(i)#re原创 2020-10-09 22:18:57 · 849 阅读 · 1 评论 -
python函数注释,参数后面加冒号:,函数后面的箭头 ->
python的函数注释1注释1def fun(name: str, age: '是一个大于零的整数值' = 52) -> '返回值为真': """ 这个是函数的帮助说明文档,help时会显示 函数声明中,name:str name 是参数 :冒号后面 str是参数的注释。 如果参数有默认值,还要给注释,如下写。 age:'是一个大于零的整数值'=52 ->'返回值为真' 是函数返回值的注释。 这些注释信息都转载 2020-10-09 20:47:04 · 1056 阅读 · 1 评论 -
python的 hashlib库
1. hashlib的基本概念什么叫hash?hash是一种算法(不同的hash算法只是复杂度不一样)(python3.x里面 代替了md5模块 和sha模块,主要提供SHA1,SHA224,SHA256, SHA384, SHA512, MD5算法),该算法接收传入的内容,经过运算得到一串hash值。hash值得特点是(hash值、产品有三大特性):只要传入的内容一样,得到的hash值必然一样,要用明文传输密码文件完整性校验不能由hash值返解成内容–>把密码做成hash值,转载 2020-10-09 20:34:41 · 2209 阅读 · 0 评论 -
python fastapi介绍
fastapi 击败flaskfastapi介绍详情请参考:fastapi 网页部署原创 2020-10-09 15:32:19 · 719 阅读 · 0 评论 -
Python Uvicorn 简介
Uvicorn 简介uvicorn是一个基于asyncio开发的一个轻量级高效的web服务器框架uvicorn 设计的初衷是想要实现两个目标:使用uvloop和httptools 实现一个极速的asyncio服务器实现一个基于ASGI(异步服务器网关接口)的最小应用程序接口。它目前支持http, websockets, Pub/Sub 广播,并且可以扩展到其他协议和消息类型。安装使用uvicorn 仅支持python 3.5.3以上版本,我们可以通过pip3来快速的安装。Tip:建议和我原创 2020-10-09 15:26:30 · 25567 阅读 · 2 评论 -
python中property, setter装饰器
问题提出:在python中用 “.” 操作来访问和改写类的属性成员时, 会调用__get__和__set__方法,在这种情况下,python会查找class.__dict__字典,对 对应值进行操作。比如C.x 会调用C.__get__访问最终读取C.dict[x]元素。如果需要读取时对输出结果进行修饰或者对输入进行合法化检查,通常做法是自己写get和set函数,并通过调用get和set函数进行读写类成员属性。如:class Timer: def __init__(self, value = 0.转载 2020-10-08 19:41:06 · 228 阅读 · 0 评论 -
python工具包
pathlibpathlib — 面向对象的文件系统路径pathlib 替代os.path该模块提供表示文件系统路径的类,其语义适用于不同的操作系统。路径类被分为提供纯计算操作而没有 I/O 的 纯路径,以及从纯路径继承而来但提供 I/O 操作的 具体路径。Path.expanduser()返回展开了包含 ~ 和 ~user 的构造,就和 os.path.expanduser() 一样:p = PosixPath('~/films/Monty Python')p.expanduser()--原创 2020-10-06 22:38:34 · 778 阅读 · 1 评论 -
python 工具包 pydantic
参考:pydantic 官方文档1. pydantic库是什么pydantic库是一种常用的用于数据接口schema定义与检查的库。通过pydantic库,我们可以更为规范地定义和使用数据接口,这对于大型项目的开发将会更为友好。当然,除了pydantic库之外,像是valideer库、marshmallow库、trafaret库以及cerberus库等都可以完成相似的功能,但是相较之下,pydantic库的执行效率会更加优秀一些。因此,这里,我们仅针对pydantic库来介绍一下如何规范定义标准s原创 2020-10-06 22:36:11 · 1447 阅读 · 0 评论 -
pytorch LearningRate 的调整方法总结
优化器中 最重要的一个参数是学习率,合理的学习率可以使优化器快速收敛。一般在训练初期设定较大的学习率,随着训练的进行,学习率逐渐减小,学习率什么时候减小,减小多少,这就涉及到 学习率调整方法。pytorch V1.60 提供了 10种 learning rate 调整方法,这里做一个简单的总结。所有的学习率调整方法可以分3大类,分别是 有序调整,自适应调整,自定义调整。第一类:有序调整,依据一定的规律有序进行调整,这一类是最常用的,分别是等间隔下降(step), 按需设定下降间隔(MultiStep原创 2020-08-05 11:18:36 · 4954 阅读 · 0 评论 -
pytorch训练模型注意事项
用torch tensor在GPU上运算来生成数据集,加速数据生成如果数据集需要在线生成(即在dataloader 里面 计算生成 feature 和label), 如果数据量比较大,并且涉及到矩阵运算,可以用torch tensor来计算。把矩阵放到GPU上计算的快。如果构造dataset 时 是通过cuda tensor计算得到的,那么在创造dataloader 通过多线程加载数据时,请注意加上 import multiprocessing as mp,mp.set_start_method(.原创 2020-07-29 15:58:08 · 2235 阅读 · 0 评论 -
pytorch 合集: pytorch的函数之torch
Torch:torch这个包里面 定义了 多维张量的数据结构以及他们的数学运算,还提供了许多有效序列化张量和任意类型的实用工具,以及其他有用的实用工具。张量Tensoris_tensor 判断是否是一个张量,返回True or False.里面的函数就是简单地 return isinstance(obj, torch.Tensor)is_storage 判断是否为存储类型,返回True or False.里面的函数就是一行: return type(obj) in _storag原创 2020-07-27 16:52:49 · 246 阅读 · 0 评论 -
向量矩阵运算
import numpy as np向量运算a = np.array([1,2])b = np.array([2,1])# 向量相乘dot = sum([i*j for i,j in zip(a,b)])print('非numpy 计算 向量相乘结果: ',dot) ## 向量相乘numpy 用法dot1 = np.sum(a*b)dot2 = (a*b).sum()dot3 = np.dot(a,b)dot4 = a.dot(b)dot5 = b.dot(a)print('原创 2020-07-24 11:41:53 · 1042 阅读 · 0 评论