自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(53)
  • 收藏
  • 关注

原创 human evaluation-Totto

人工评测-Totto数据集

2023-04-11 00:27:17 853

原创 human evaluation-E2E

人工评测

2023-04-10 23:23:44 936

原创 GPT-2

GPT-2论文

2022-08-16 10:27:54 585 1

原创 TableGPT

TableGPT阅读

2022-08-03 15:53:53 1472

原创 MMTM论文阅读

MMTM摘要介绍相关工作多模态传输模块参考论文MMTM: Multimodal Transfer Module for CNN Fusiongithub:https://github.com/haamoon/mmtm摘要后融合中,每个模态是分别经过单模态CNN后得到分数后再融合在一起。Multimodal Transfer Module作为本文提出的单元可以添加在特征层级的不同层级处,可以实现慢融合。利用压缩和激活操作,MMTM利用多个模态的知识去重新校准每个CNN流中的通道特征。不像其他的中间融合

2022-03-16 14:56:48 4301

原创 论文阅读《Character-oriented Video Summarization with Visual and Textual Cues》

论文阅读介绍相关工作视频总结人物搜索多模态学习模型结构问题定义参考论文:Character-oriented Video Summarization withVisual and Textual Cues介绍随着社交媒体平台上内容再创造的发展,面向字符的视频总结已经成为了一个用户生成视频内容的关键形式。副标题和弹幕评论的出现使得视频伴随着丰富的文本信息,因此存在挖掘文本信息增强面向字符的视频总结的潜力。本文中我们提出一种独特的联合视觉和文本信息的架构。具体来说,首先我们通过无差别的定位字符,然后通过

2022-03-13 14:58:19 2140

原创 论文阅读(Multimodal Dialog Systems via Capturing Context-aware Dependencies of Semantic Elements)

Multimodal Dialog Systems via Capturing Context-awareDependencies of Semantic Elements简述

2022-03-06 22:48:02 565

原创 第7章-查询优化(金培权课程)

查询优化语法分析SQL查询语法分析初始逻辑查询计划生成查询重写转换规则查询代价估计中间结果的大小估计IO代价估计语法分析构造语法分析树SQL查询语法分析初始逻辑查询计划生成关系代数关系代数与SQL语句的转化查询重写初始逻辑查询计划->优化的逻辑查询计划转换规则R×S=S×RR×S=S×RR×S=S×R;(R×S)×T=R×(S×T)(R×S)×T=R×(S×T)(R×S)×T=R×(S×T);R⋈S=S⋈RR\Join S=S\Join RR⋈S=S⋈R;(R⋈S)

2022-01-11 23:33:14 601 1

原创 第6章-索引结构(金培权课程)

索引结构顺序文件上的索引密集索引稀疏索引多级索引辅助索引辅助索引概念倒排索引B+树结点性质插入删除效率散列表普通散列表可拓展散列表线性散列表对比R-TreeR-tree结构R-tree的插入R+树网格文件网格文件特点网格文件的物理组织网格文件考虑分段散列函数分段散列与网格文件顺序文件上的索引顺序文件:记录按查找键排序密集索引规则:每个记录都有一个索引项,索引项按照查找键排序,密集索引一般常驻内存优点:查找键值为K的记录不需要访问磁盘数据块缺点:索引占据太多空间稀疏索引规则:仅部分记

2022-01-11 21:04:07 730

原创 第五章-缓冲区管理(金培权课程)

缓冲区管理缓冲区

2022-01-11 14:52:28 674

原创 第四章-数据表征(金培权课程)

数据表征数据项的表示数据项表示方法两种不同的数据项表示记录的组织固定格式定长记录记录首部可变格式记录变长记录表示记录在块中的组织记录在块内的分隔跨块(spanned)不同类型的记录聚簇在块中按序存储记录记录的分裂记录地址记录的修改块在文件中的组织堆文件数据项的表示数据项表示方法字节序列表示内容:表示关系数据库中元组的属性值表示方法:SQL数据类型1)Integer(short)表示整数2)Real(Float)表示实数3)Char(n)表示定长字符串(小于n可用特殊填充符)4)Varch

2022-01-11 00:42:57 1148

原创 第三章-数据存储(金培权课程)

数据存储

2022-01-10 21:43:53 628

原创 第二章 关系数据库回顾

关系数据库

2022-01-10 01:22:39 547

原创 第一章数据库系统概述(中科大金培权课程)

数据库系统概述

2022-01-09 19:24:34 691

原创 分布式算法(中科大分布式算法课程笔记)

分布式算法

2022-01-03 15:01:59 3046

原创 概率算法笔记

概率算法

2022-01-02 21:09:54 637

原创 近似算法(参考中科大黄刘生PPT)

近似算法基本概念P、NP、NPC类问题三种归约策略NP-hard求解方法近似算法预备知识和基本定义绝对性能保证基本概念局限性:1)问题的可解性2)可计算理论:通过建立计算的数学模型,区分哪些可计算、哪些不可计算3)可计算函数:在抽象计算机上编出程序计算其值的函数4)Church-Turing论题:若一个函数在某个合力的计算模型上可计算,则它在图灵机上也是可计算的5)不可计算性:又穷描述过程无法完成的问题和函数6)可计算问题:多项式时间内可解,上界是O(nk)O(n^k)O(nk)不

2022-01-01 20:45:14 1928 3

原创 高级数据库系统笔记-Transaction Processing(Ⅰ)

Transaction ProcessingDatabases protection

2021-12-18 19:55:09 906

原创 多模态综述

多模态综述介绍参考文献:《Multimodal Machine Learning: A Survey and T axonomy》介绍我们身边的环境就是一个多模态的环境,看到的实体、听到的声音、闻到的气味和尝到的味觉。本篇综述不是着重于多模态的应用,而是重点关注多模态的方法和技术。多模态问题的定义在于数据来源是不同模态的数据,而这些数据具有异质性(heterogeneity),则带来了多模态的五个挑战:representation, translation, alignment, fusion和co-

2021-12-03 22:53:08 4594

原创 BLS综述

BLS综述宽度学习基础RBLS&GBLSConvolutional BLSBLS从2017年被陈俊龙教授提出后,发展时间不长且未被广泛使用,参考《Research Review for Broad Learning System: Algorithms, Theory, and Applications》这篇最新提出的综述,可以捋一捋宽度学习的目前发展宽度学习基础关于宽度学习的基础介绍,主要参考陈俊龙教授的《Broad Learning System: An Effective and Eff

2021-11-11 20:26:47 2491

原创 可靠多模态综述

可靠多模态综述引言引言协同训练: 多模态学习早期学习方法之一,利用模态间的互补性准则,最大化两个不同模态未标记数据的互一致性协同正则化:利用模态间的一致性准则,最小化两个不同模态未标记数据的预测差异性来排除不一致的假设方法统一性:早期基于互补性准则的协同训练类型方法通过各模态最置信的未标记样本的伪标记信息进行相互教学,本质也可看做潜在标记的一致性。两类方法都关注利用样本不同模态间的强相关性近年方法:转而注重学习或者度量模态间的互补信息表示,增强模态的融合性能挑战:信息缺失、噪声

2021-11-10 15:32:58 1010

原创 BERT(李宏毅课程)

BERT自监督学习Bert应用自监督学习不完全等于无监督学习,属于一种无监督学习。隐藏输入bert中含有一个transformer和encoder,然后通过mask或者random的方式替换某个字符,然后希望输出这个替换的字符,训练出对应的参数,形成一个自监督的过程。语句预测预测两个句子是否接在一起Bert应用在应用之前,先pre-train出一个bert出来,然后可以应用经过微调的bert于其他任务上。输入为序列,输出为类别bert上再加上一个linear层经过

2021-11-04 22:48:16 373

原创 GAN(李宏毅课程-未完)

GANGenerative Adversarial Network#Genetator根据不同分布的z可以得到不同分布的y,y称为generator例子:link即对于同样的输入可能有不同的输出(可能右转可能左转)Generative Adversarial Networkunconditional generation这里选择normal distribution,因为复杂的内容可以交给generator除了generator之外,我们还需要一个discriminator,用于

2021-11-02 21:45:47 95

原创 CNN(李宏毅课程)

CNN李宏毅课程图像分类简化方法图像分类图片的结果表示用one-hot表示图片的输出就是一个维度相同的向量,我们比较输出和标签用的交叉熵图片的输入用一个三维的tensor表示,分别为长宽和channel(RGB)问题:输入数据维度太大简化方法观察1. 我们发现很多时候我们不需要观察全局信息,只需要观察局部信息CNN的设置:设置一个receptive field,在CNN中,某个神经元只考虑这个field内的数据。对于所有的field,可以任意设置,可以相同的区域、可以不同的大小、可以不同

2021-10-29 23:21:13 115

原创 RNN和LSTM学习笔记

RNN和LSTM学习笔记RNNRNN简介BRNNDRNNLSTMRNNRNN简介参考知乎循环神经网络对于处理连续文本,我们需要联系句子上下文的内容,例如“我 吃 水果”。我们需要将三个词一次输入我们的输入层中,三个词分不同的时刻输入。因此,每个时刻的权值W都是继承上个权值S,而新的S又由输入X和W共同决定,更为详细的图:我们将每次的输出更新,会得到下面这样的公式参考链接很容易看出,RNN存在两个问题,梯度消失和梯度爆炸,这也是LSTM提出的原因。BRNNlink显然我们再看一个句

2021-10-29 20:47:19 260

原创 宽度学习学习笔记

宽度学习笔记随机向量函数链接网络(RVFLNN)增强节点权值计算Greville 定理宽度学习系统(Broad Learning System)参考论文:Broad Learning System: An Effective and EfficientIncremental Learning System Withoutthe Need for Deep Architecture随机向量函数链接网络(RVFLNN)增强节点RVFLNN是一个单层网络结构,只有输出层和隐藏层,此外还多余一个增强层。

2021-10-22 00:24:17 1975 1

原创 Classification(李宏毅课程)

ClassificationClassification as RegressionClass as one-hot vectorLoss of ClassificationClassification as Regressionif class 1/2/3 have some relations, we can use this method. ex: age and gradeClass as one-hot vectortwo-dimension softmax is same as si

2021-08-17 21:52:19 81

原创 how to train network(李宏毅课程)

ML ExperimentModel BiasOptimization IssueOverfittingMismatchBatchMomentumError SurfaceModel Biasadd the featuresmake your model complex, improve the level of the netOptimization IssueIf deeper networks do not obtain smaller loss on training data

2021-08-17 21:31:14 77

原创 Transformer(李宏毅课程)

TransformerSeq2seqSeq2seqThe output length is determined by modelSpeech RecognitionMachine TranslationSpeech Translation(language without text)Question AnsweringNLP problem can be solved by seq2seqSyntactic Parsingoutput is a tree which

2021-08-03 15:59:41 189

原创 Self-Attention(李宏毅课程)

Self-Attentionintroductionintroductioninputvector set:graph、audiooutput

2021-08-03 11:22:34 104

原创 论文笔记Evolving Fully Automated Machine Learning via Life-Long Knowledge Anchors

论文笔记Evolving Fully Automated Machine Learning via Life-Long Knowledge Anchors摘要介绍1. 现存的Self-AutoML2.本文提出的Fully-AutoML相关工作1.自动化机器学习2.终生学习和元学习摘要自动化机器学习成就:人工提取特征、模型设计例子:NAS、optimizer selection缺陷:data cleaning、model ensemble,仍需要人为干预,局部最优本文工作:提出完整的AutoML流

2021-08-02 18:31:38 498

原创 Life Long Learning(李宏毅课程)

Life Long Learningcatastrophic forgettingmulti-taskmulti-modelTransfer vs LLLEvaluationSelective Synaptic PlasticityAdditional Neural Resource AllocationMemory Replycatastrophic forgettingmulti-taskcomputation problem ---- using all datastorage issue

2021-07-30 10:15:17 102

原创 pytorch-introduction

pytorchGoogle ColabDNN Training ProcedureGoogle Colablink: https://colab.research.google.com/drive/1plDsa66koeaskb3YFag4CAX6FSyoJzBcDNN Training ProcedureOverviewTensor2.1 constructor:import numpyimport torch# from listx = torch.tensor([[1,

2021-04-29 16:26:31 131

原创 leetcode刷题记录

leetcode刷题记录[1011. 在 D 天内送达包裹的能力](https://leetcode-cn.com/problems/capacity-to-ship-packages-within-d-days/)想每天刷一到两道题,记录起到一个目录作用即可1011. 在 D 天内送达包裹的能力

2021-04-26 20:33:17 369

原创 Backpropagation

BackpropagationLoss functionLoss functionfunction content:L(θ)=∑iCin(θ)=∑iyi2−yi^2L(\theta)=\sum_{i}C_i^n(\theta)=\sum_{i}y_i^2-\hat{y_i}^2L(θ)=i∑​Cin​(θ)=i∑​yi2​−yi​^​2how to calculate the partial value of partial of var∂Ci∂θ=∂yi∂θ∗2yi{\partial{C_i

2021-04-26 15:58:09 48

原创 Machine Learning(李宏毅公开课笔记)-Machine Learning and Deep Learning

Machine Learning(李宏毅)Machine Learning and Basic ConceptionsMachine Learning and Basic ConceptionsFunctions1.1 Regression:PM2.51.2 Classification:chess1.3 Others:structured learningThe procedures of finding the functions2.1 Functions with unknown

2021-04-23 20:20:30 405

原创 每日leetcode4.19-移除元素

每日leetcode4.19-移除元素27.移除元素27.移除元素思路和之前一道去重的提较为类似class Solution: def removeElement(self, nums: List[int], val: int) -> int: i = 0 j = 0 while j < len(nums): if nums[j] != val: nums[i] = nums[j

2021-04-20 11:41:50 106

原创 每日leetcode4.17-零钱兑换

每日leetcode4.14-零钱兑换-补518.零钱兑换II322.零钱兑换4.14因为某些事情耽误,今日额外弥补518.零钱兑换II今天突然有同学问到这种题,就去leetcode搜索这类题,经典背包问题我还是惯性使用了二维dp,实际上简单一维dp题目:给定不同面额的硬币和一个总金额。写出函数来计算可以凑成总金额的硬币组合数。假设每一种面额的硬币有无限个。样例:输入: amount = 5, coins = [1, 2, 5]; 输出: 4class Solution: def

2021-04-17 01:51:26 125

原创 每日leetcode4.16(扰乱字符串+无重复最长字串)

每日leetcode4.16(扰乱字符串)87. 扰乱字符串(hard)3 无重复字符的最长字串87. 扰乱字符串(hard)三维dp,四维运算,从长度为1开始向上增加class Solution: def isScramble(self, s1: str, s2: str) -> bool: l = len(s1) dp = [[[0] * l for i1 in range(l)] for i2 in range(l)] for p i

2021-04-16 23:47:26 94

原创 每日leetcode4.15-打家劫舍

每日leetcode4.16198. 打家劫舍213. 打家劫舍 II198. 打家劫舍简单dp,下面有进阶版from typing import Listclass Solution: def rob(self, nums: List[int]) -> int: l = len(nums) dp = [0] * l dp[0] = nums[0] for i in range(1, l): i

2021-04-15 22:00:37 67

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除