![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
打卡
CUMTZZP1618
这个作者很懒,什么都没留下…
展开
-
【无标题】
打卡原创 2022-10-21 22:26:06 · 301 阅读 · 1 评论 -
PyTorch进阶训练技巧
Pytorch进阶训练原创 2022-10-19 23:38:04 · 107 阅读 · 0 评论 -
@[TOC](Pytorch模型修改)
基本思路是:将原模型添加输入位置前的部分作为一个整体,同时在forward中定义好原模型不变的部分、添加的输入和后续层之间的连接关系,从而完成模型的修改。有时候在模型训练中,除了已有模型的输入之外,还需要输入额外的信息。基本的思路是修改模型定义中forward函数的return变量。原创 2022-10-16 23:01:36 · 294 阅读 · 0 评论 -
@[TOC](pytorch实战 基础篇)
pytorch 基础篇原创 2022-10-15 00:26:50 · 117 阅读 · 0 评论 -
【无标题】
呱呱呱教程其四原创 2022-08-28 20:24:35 · 82 阅读 · 0 评论 -
呱呱呱教程其三
吃瓜教程第三期原创 2022-08-25 20:50:28 · 222 阅读 · 0 评论 -
呱呱呱教程其二
求偏导且另其值为 0 可构建方程组,通过求解该方程组可得(公式敲起来真滴费劲)对于拆解的方法主要包括:一对一(OvO),一对其余(OvR),多对多(MvM)。多分类问题可以被拆解为若干个二分类问题,并最终拼接为一个多分类问题。将编码的思想引入类别拆分,使得在编码过程中具有较高的容错性。其中,运用最小二乘的方法确定公式中的。因此可以用最大似然的方法对公式中的。通过计算得到最大的概率可以获得。可以通过牛顿迭代法求解该式。原创 2022-08-22 23:30:49 · 212 阅读 · 0 评论 -
呱呱呱教程其一
DataSet:数据的集合,通常以表格形式出现。每一列代表一个特定变量。每一行都对应于某一成员的数据集的问题。用数学公式可以写为D={x1,x2,x3…xn}D = \left\{ \textit{x}_1,\textit{x}_2,\textit{x}_3 \dots \textit{x}_n \right\}D={x1,x2,x3…xn}。Instance:数据集中的一条数据xi\textit{x}_ixi,是一组反应描述对象特征的一个集合,xi={xi1^,xi2^,xi3^,…xik^}原创 2022-08-15 11:47:03 · 169 阅读 · 0 评论 -
EasyRL笔记
借用维基百科对于强化学习的定义: Reinforcement learning (RL) is an area of machine learning concerned with how intelligent agents ought to take actions in an environment in order to maximize the notion of cumulative reward.即强化学习是机器学习的一个领域其主要关注的目标是如何使 智能体(agents)在 特定的环境下原创 2022-07-12 10:56:30 · 380 阅读 · 0 评论 -
语义分割学习
语义分割学习第一次打卡在运行前提前挂载数据import numpy as npimport pandas as pdimport pathlib, sys, os, random, timeimport numba, cv2, gcfrom tqdm import tqdm_notebookimport matplotlib.pyplot as plt%matplotlib inlineimport warningswarnings.filterwarnings('ignore原创 2021-02-20 23:35:46 · 150 阅读 · 0 评论 -
2021-2-20打卡
Docker 使用学习天池官方的学习地址 https://tianchi.aliyun.com/competition/entrance/231759/tab/226先安装 Hyper-V之后开启 Hyper-V在官网找到windows版本的下载入口下载Docker在windows下直接点击安装即可,再次之前需要注册账户然后再pycharm的setting中搜索进行安装在开源下载地址:https://github.com/datawhalechina/team-learning-dat原创 2021-02-20 23:17:09 · 113 阅读 · 0 评论