- 博客(5)
- 资源 (17)
- 收藏
- 关注
原创 一种向上取整及pandas group by方法
一、生成测试数据test = pd.DataFrame([])index = np.linspace(1,50,50)test["index"] = indextest["val"] = ['is{}'.format(x) for x in index] test.head()数据index是1-50的50个数字,val是对应的测试数据值,我们目的是要每10个groupby成一组。二、group操作test.groupby(-(-test["index"] .
2022-01-11 18:05:38 2321 1
原创 Learning Task Parameters
指定学习任务和相应的学习目标。目标选项如下:objective[default=reg:squarederror]reg:squarederror:具有平方损失的回归。reg:squaredlogerror:平方对数损失回归\frac{1}{2}[log(pred + 1) - log(label + 1)]^2
2021-08-03 13:13:24 118
原创 xgboost全局参数
一、全局配置1、verbosity:打印消息的详细程度。有效值0(静默)、1(警告)、2(信息)和 3(调试)。2、use_rmm: 是否使用 RAPIDS Memory Manager (RMM) 来分配 GPU 内存。此选项仅在启用 RMM 插件的情况下构建(编译)XGBoost 时适用。有效值为true和false。2、通用参数1、booster[默认= gbtree]使用哪种booster。可...
2021-08-03 01:40:28 285
原创 Tree Booster 的参数
Tree Booster 的参数1、eta[默认=0.3,别名:learning_rate],范围:[0,1]更新中使用减小步长以防止过度拟合。在每一步 boosting 之后,我们可以直接得到新特征的权重,并eta减小特征权重,使 boosting 过程更加保守2、gamma[默认=0,别名:min_split_loss],范围:[0,∞]在树的叶子节点上进行进一步分裂所需的最小损失减少。越大gamma,算法就越保守。3、max_...
2021-08-02 20:38:16 800
原创 softmax求导
a+ba+ba+bab\frac{a}{b}baxnx^nxnlogab\log_a^blogabxix^ixi基础概念Softmax函数的输入是N维的随机真值向量,输出是另一个N维的真值向量,且值的范围是(0,1),和为1.0。即映射:S(a)=RN\mathbb{R}^{N}RN→RN\mathbb{R}^{N}RN:S(a):[a1a2…aN]→[S1S2⋯SN]S(\...
2020-02-25 17:19:09 175
eurusd_2015.1.1-2020.1.1最高价、最低价、开盘价、收盘价、成交量
2021-11-11
tensorflow-2.2.0-cp36-cp36m-manylinux2010_x86_64.whl
2020-07-07
compat-libstdc33-3.2.3-61.i386.rpm
2019-12-25
RG-WALL 1600全新NGFW实施一本通(V3.0)
2019-12-25
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人