机器学习
文章平均质量分 92
ericliu2017
精通python和深度学习,近一年开始做专利大模型相关的项目,熟悉NLP相关模型,有NER和文本分类相关编程经验;
做过电子病历智能诊断和电子病历结构化等相关项目。
展开
-
建立流行病预警指数体系并优化传染病模型:对公共卫生突发事件监测数据的分析
R ,从传染病模型中移除的人群,指的是被隔离或对该疾病具有免疫力的人群[59]。经过数据筛选、分类和其他预处理工作,结合各国数据趋势,从2020年1月16日至5月15日中国累计确诊病例、累计疑似病例、新增确诊病例、累计死亡病例和累计治愈病例,以及从2020年2月1日至4月30日日本、韩国和英国(英国)的累计确诊病例和累计疑似病例,最终保留了从2020年3月1日至5月29日美国(美国)的新确诊病例、累计死亡病例和累计治愈病例,使用每个国家90天的新冠疫情相关数据集作为训练样本集,以确诊病例的时间数据集。原创 2024-02-19 14:29:39 · 1766 阅读 · 0 评论 -
ScalersTalk成长会机器学习小组第7周学习笔记
ScalersTalk成长会机器学习小组第7周学习笔记本周主要内容 - 优化目标 - 最大间隔 - 最大间隔分类的数学背景 - 核函数II - 核函数IIII - 使用支持向量机本周主要知识点:一、优化目标 - 从另一个角度看logistic回归 hθ(x)=1(1+e−θTx)h_\theta(x)=\frac{1}{(1+e^{-\theta^Tx})} if y=1y=1原创 2016-04-08 11:19:19 · 2118 阅读 · 0 评论 -
SGD的batch size多大是合适的?
The "sample size" you're talking about is referred to as batch size, B. The batch size parameter is just one of the hyper-parameters you'll be tuning when you train a neural network with mini-batch转载 2017-01-27 23:08:39 · 2245 阅读 · 0 评论 -
An overview of gradient descent optimization algorithms
An overview of gradient descent optimization algorithmsNote: If you are looking for a review paper, this blog post is also available as an article on arXiv.Table of contents:Gradient转载 2017-01-28 11:59:01 · 948 阅读 · 0 评论 -
How do Convolutional Neural Networks work?
Nine times out of ten, when you hear about deep learning breaking a new technological barrier, Convolutional Neural Networks are involved. Also called CNNs or ConvNets, these are the workhorse of the转载 2017-01-28 12:33:51 · 904 阅读 · 0 评论 -
使用catboost解决ML中高维度不平衡数据集挑战的解决方案
什么是不平衡的数据集本文中所涉及的数据分类之间不均匀,有的几千条,有的几十条,这种数据集被认为是不平衡的数据集。 这些类型的数据集通常存在于预测维护系统,销售倾向,欺诈识别,智能诊断等应用领域中。例如,在电子病历中的呼吸科疾病诊断中,以2200条测试数据来看具体分布,数据分布很不均匀,最多的是1214例,最少的37例。各个疾病的分布如下。J20 急性支气管炎 ...原创 2018-05-09 17:23:28 · 5560 阅读 · 3 评论 -
文本分类- Hierarchical attention network
本文实现了层次注意力模型来进行文档分类。 得益于Keras简单上手,这使得这个项目变得不是那么困难。 自定义Layer非常强大且灵活,可以将您的自定义逻辑嵌入到现有框架中。 功能性API使得分层InputLayer非常容易实现。Text classification using Hierarchical LSTM在全面实现层次注意力模型之前,我想要建立一个分层的LSTM网络作为base翻译 2019-02-28 13:31:26 · 826 阅读 · 0 评论