mathlxj
码龄6年
关注
提问 私信
  • 博客:449,831
    449,831
    总访问量
  • 147
    原创
  • 90,487
    排名
  • 230
    粉丝
  • 学习成就

个人简介:复旦大学数院博士毕业,蚂蚁打工人,神经网络方向,目前涉猎计算机视觉、机器学习、推荐系统、TensorRT、自动驾驶、联邦学习、消费信贷、量化等领域。

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:上海市
  • 加入CSDN时间: 2018-08-03
博客简介:

mathlxj的博客

查看详细资料
  • 原力等级
    成就
    当前等级
    5
    当前总分
    1,348
    当月
    8
个人成就
  • 获得340次点赞
  • 内容获得184次评论
  • 获得1,862次收藏
  • 代码片获得2,298次分享
创作历程
  • 2篇
    2024年
  • 23篇
    2023年
  • 18篇
    2022年
  • 3篇
    2021年
  • 83篇
    2020年
  • 19篇
    2019年
  • 4篇
    2018年
成就勋章
TA的专栏
  • 面试
    7篇
  • 推荐系统
    2篇
  • 秋招
    6篇
  • LaTex
    9篇
  • 自动驾驶
    12篇
  • TensorRT
    14篇
  • 目标检测
    13篇
  • 数学
    1篇
  • 互联网
    1篇
  • Xavier
    7篇
  • CV
    24篇
  • 人脸
    2篇
  • 小技巧
    7篇
  • Pytorch源码学习
    11篇
  • kaggle
    2篇
  • 代码示例
    7篇
  • ubuntu
    30篇
  • Jetson TX2
    19篇
  • 常用网址
    2篇
  • Nano
    1篇
  • leetcode
    1篇
  • CVPR2020
    4篇
  • mask
    1篇
  • Pose
    3篇
  • Python基础
    16篇
  • 机器学习
    14篇
  • API使用
    2篇
  • 数据集汇总
    3篇
  • 爬虫
    1篇
  • 嵌入式部署
    9篇
  • 面试记录
    3篇
兴趣领域 设置
  • 人工智能
    opencv计算机视觉机器学习深度学习神经网络自然语言处理tensorflowpytorch数据分析
创作活动更多

HarmonyOS开发者社区有奖征文来啦!

用文字记录下您与HarmonyOS的故事。参与活动,还有机会赢奖,快来加入我们吧!

0人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

AUC与GAUC的相关知识

GAUC (group auc)实际上是计算每个用户的auc,然后加权平均,最后得到group auc,这样能减少不同用户间的排序结果不好比较这一影响。具体公式为GAUC∑up​ωup​∑up​ωup​×AUCup​​这里,权重ωup​可以是每个用户view或者click的次数,而且会正样本或负样本的情况。
原创
发布博客 2024.04.17 ·
1181 阅读 ·
33 点赞 ·
0 评论 ·
18 收藏

蚂蚁集团2025届暑期实习开始啦~

蚂蚁集团2025届暑期实习开始啦~欢迎大家投递信贷事业群-风险管理部的算法岗,找我内推哦~社招也有hc,欢迎大家沟通!
原创
发布博客 2024.03.12 ·
374 阅读 ·
3 点赞 ·
0 评论 ·
0 收藏

神经网络正则化之BN/LN/GN的原理

加速训练。之前训练慢是因为在训练过程中,整体分布逐渐往非线性函数的取值区间的上下限端靠近(参考sigmoid函数,大的正值或负值),链式求导导致低层的神经网络梯度消失。BN就是将越来越偏的分布强行拉回(标准)正态分布,使得激活值落在非线性函数对输入比较敏感的区域,这样输入小的变化就会导致损失函数较大变化,让梯度变大,避免梯度消失问题。γ和β?如果强行归一化为标准正态分布,则之前该层学习到的分布也丢失信息。引入这两个重构参数,来使得我们的网络中可以学习出原始网络要学习的特征分布.yVarx。
原创
发布博客 2023.07.18 ·
958 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

机器学习之生成式模型与判别式模型的区别

根本区别在于是否计算了联合分布PXY和是否比较了模型输出的概率大小.
原创
发布博客 2023.07.18 ·
2360 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

机器学习/深度学习常见算法实现(秋招版)

包括BN层、卷积层、池化层、交叉熵、随机梯度下降法、非极大抑制、k均值聚类等秋招常见的代码实现。
原创
发布博客 2023.07.18 ·
2342 阅读 ·
1 点赞 ·
0 评论 ·
7 收藏

华为秋招笔试真题

华为秋招机试真题
原创
发布博客 2023.07.18 ·
1264 阅读 ·
0 点赞 ·
0 评论 ·
4 收藏

python matplotlib 记号(markers)大全

marker符号描述英文描述"."点point","像素pixel"o"圈circle"v"下三角triangle_down"^"上三角triangle_up"<"左三角triangle_left"<"右三角triangle_right"1"tri_down"2"tri_up"3"tri_left"4"tri_right"8"八边形oc
原创
发布博客 2023.07.11 ·
1984 阅读 ·
3 点赞 ·
0 评论 ·
13 收藏

python matplotlib颜色大全

基本的颜色颜色样式表
原创
发布博客 2023.07.11 ·
643 阅读 ·
1 点赞 ·
0 评论 ·
2 收藏

LaTex定界符

【代码】LaTex定界符。
原创
发布博客 2023.07.10 ·
344 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

LaTex箭头符号

【代码】LaTex箭头符号。
原创
发布博客 2023.07.10 ·
2975 阅读 ·
1 点赞 ·
0 评论 ·
7 收藏

LaTex重音符号

包括帽子符号、波浪符号等。
原创
发布博客 2023.07.10 ·
320 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

LaTex之可变换大小符号

包括LaTex求和、求连乘、积分符号等。
原创
发布博客 2023.07.10 ·
1077 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

LaTex函数符号大全

LaTex函数符号
原创
发布博客 2023.07.10 ·
1046 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

LaTex关系符号大全

符号LaTex符号LaTex符号LaTex符号LaTex≤\leq≤\leq≥\geq≥\geq⪰\succeq⪰\succeq≺\prec≺\prec⪯\preceq⪯\preceq≻\succ≻\succ≫\gg≫\gg≪\ll≪\ll⊃\supset⊃\supset⊇\supseteq⊇\supseteq⊂\subset⊂\subset⊆\subseteq⊆\subseteq∋
i∋
i∈\in∈\i
原创
发布博客 2023.07.10 ·
432 阅读 ·
0 点赞 ·
0 评论 ·
3 收藏

LaTex之二元运算符号大全

【代码】LaTex之二元运算符号大全。
原创
发布博客 2023.07.10 ·
523 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

LaTex希腊字母大全

【代码】LaTex希腊字母大全。
原创
发布博客 2023.07.10 ·
23455 阅读 ·
14 点赞 ·
1 评论 ·
73 收藏

LaTeX之罗列多个公式

基本用法,公式编号a+b=b+aa×b=b×a\begin{gather}a+b = b+a \\a\times b = b \times a\end{gather}a+b=b+aa×b=b×a​​可以使用不编号a+b=b+aa×b=b×a\begin{gather*}a+b = b+a \\a\times b = b \times a\end{gather*}a+b=b+aa×b=b×a​或者在前用命令阻止指定的行不编号,a+b=b+aa×b=b×aa−b=−b+a\beg
原创
发布博客 2023.07.10 ·
1718 阅读 ·
2 点赞 ·
0 评论 ·
4 收藏

LaTex定理类环境

定理类环境是LaTex中的一类重要的文本环境,它可以产生一个标题、编号和特定格式的文本。新的环境允许带有可选参数表示定理的小标题,如下。命令可以在最后使用一个可选的计算器参数。让不同的定理类环境使用相同的环境。以上命令定义类一个名为。环境,效果是输出标题为。用来表示定理编号是。的下一级编号,并会随。
原创
发布博客 2023.07.10 ·
2170 阅读 ·
0 点赞 ·
0 评论 ·
8 收藏

如何防止softmax函数overflow和underflow?

在很多数值计算的库中,都采用了此类方法保持数值稳定.
原创
发布博客 2023.04.03 ·
937 阅读 ·
0 点赞 ·
1 评论 ·
0 收藏

逻辑回归相关问题整理

但是对特征本身来说的话,假设只有一个特征,在不考虑采样的情况下,你现在将它重复100遍。训练以后完以后,数据还是这么多,但是这个特征本身重复了100遍,实质上将原来的特征分成了100份,每一个特征都是原来特征权重值的百分之一。如果在随机采样的情况下,其实训练收敛完以后,还是可以认为这100个特征和原来那一个特征扮演的效果一样,只是可能中间很多特征的值正负相消了。一般和平方损失函数(最小二乘法)拿来比较,因为线性回归用的就是平方损失函数,原因就是平方损失函数加上sigmoid的函数将会是一个。
原创
发布博客 2023.04.03 ·
382 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏
加载更多