- 博客(16)
- 资源 (385)
- 问答 (103)
- 收藏
- 关注
原创 LSTM,GRU最权威的公式
摘自pytorch官方文档LSTM代码细节:import torch.nn as nnfrom torch.autograd import *import torchbatch_size = 3num_layer = 2hidden_size = 20feature_size = 10rnn = nn.LSTM(feature_size, hidden_size, num
2018-01-23 11:37:22 926
原创 RNN里 门(gate) 的理解
门不是像mask一样造成 0 或 1 的输出, 而是限流的作用,控制数值大小,这靠 点乘 操作实现, (点乘而不求和就没有cosine相似度的含义,) 要控制数值大小,点乘是最好的选择。 这时再看LSTM的公式, 公式里 i f o 明显就是将 点乘 的另一乘数 限流/控制了,
2018-01-23 11:09:12 3119
原创 论文公式里的 加号 结合代码的一些常识
X1是[batch_size,feature_size] X2是[batch_size,feature_size] X1*W1+X2*W2等价于[X1:X2]*W3 其中*是矩阵相乘,:是feature dimension concat W1是[feature_size,feature_size2] W2是[feature_size,feature_size2] W3是[feature
2018-01-23 10:56:06 987
原创 论文里公式P(Y|X)结合代码的一些常识
seq2seq的一问一答, X是输入的一句话,Y是输出的一句话, 就要预测P(Y|X)最大的概率, 这时,可以认为X就是condition,Y=f(X),f是seq2seq神经网络,同理如果看到P(Y|X,Z)可以认为神经网络有两个输入X和Z,输出Y,也可以认为Y condition on X and Z而如果用概率来表示,里面有神经网络参数的话,一般这样表示,P(y ; Θ),其中
2018-01-23 10:16:20 3110
原创 除了babi之外的文本推理数据集
The Stanford Natural Language Inference (SNLI) CorpusThe Multi-Genre Natural Language Inference (MultiNLI) corpusdeepmind NarrativeQA
2018-01-17 17:38:58 1613
原创 pytorch 重复采样 与 非重复采样
import torchimport torch.nn.functional as Ffrom torch.autograd import *a = Variable(torch.FloatTensor([[0,0,0,0,0,0,90,100]]))b=F.softmax(a,-1)print(b.multinomial()) # 7 或 6print(b.multinomial
2018-01-15 17:20:08 2938
原创 torchvision pip安装失败之后的源码安装
git clone https://github.com/pytorch/vision.git git checkout 0.2.0 pip install pillow python setup.py install
2018-01-15 16:06:37 3917
原创 tensorflow loop实现的最新情况
https://stackoverflow.com/questions/35972194/variable-length-for-loop-tensorflow/
2018-01-15 10:33:17 502
原创 只用TensorFlow的反向传播实现的RNN
rnn.pydef simple_rnn(cell,inputs,init_state=None,batch_size=None,dtype=None): state = init_state if state is None: state = cell.zero_state(batch_size, dtype) outputs = [] f
2018-01-12 11:34:31 1203
原创 pytorch tensor 转 variable
import torchfrom torch.autograd import Variablet = torch.zeros([2,2])v = Variable(t)print(t)print("-----")print(v)print结果: 0 0 0 0[torch.FloatTensor of size 2x2]-----Variable contai
2018-01-10 17:03:56 1388
原创 pytorch的tf.slice
import torchA_idx = torch.LongTensor([0, 2]) # the index vectorB = torch.LongTensor([[1, 2, 3], [4, 5, 6]])C = B.index_select(1, A_idx)# 1 3# 4 6
2018-01-10 14:26:13 3200
原创 beam search 简单例子实现及讲解
from math import logfrom numpy import arrayfrom numpy import argmax# beam searchdef beam_search_decoder(data, k): sequences = [[list(), 1.0]] # walk over each step in sequence for row
2018-01-09 09:34:11 6795
原创 pytorch的reinforce算法 官方文档
http://pytorch.org/docs/0.3.0/distributions.htmlprobs = policy_network(state)m = Categorical(probs)action = m.sample() # 抽样一个actionnext_state, reward = env.step(action) # 得到一个rewardloss = -m.l
2018-01-05 11:16:05 2992
原创 torch 的 forward 和 backward
Criterions有其forward和backward函数 https://github.com/torch/nn/blob/master/doc/criterion.md Module也有其forward和backward函数 https://github.com/torch/nn/blob/master/doc/module.mdModule的forward函数最简单,就是输入input
2018-01-01 11:31:17 5462
huggingface.co/Salesforce/blip-image-captioning-base
2024-08-22
Qwen2-7B 的 model-00004-of-00004.safetensors 的2/2
2024-07-29
Qwen2-7B 的 model-00004-of-00004.safetensors 的1/2
2024-07-29
Qwen2-7B 的 model-00003-of-00004.safetensors 的2/2
2024-07-29
Qwen2-7B 的 model-00003-of-00004.safetensors 的1/2
2024-07-29
Qwen2-7B 的 model-00002-of-00004.safetensors 的2/2
2024-07-28
Qwen2-7B 的 model-00002-of-00004.safetensors 的1/2
2024-07-28
Qwen2-7B 的 model-00001-of-00004.safetensors 的2/2
2024-07-28
Qwen2-7B 的 model-00001-of-00004.safetensors 的1/2
2024-07-28
Qwen2-7B-Instruct 的 model-00004-of-00004.safetensors 的2/2
2024-07-26
Qwen2-7B-Instruct 的 model-00004-of-00004.safetensors 的1/2
2024-07-26
Qwen2-7B-Instruct 的 model-00003-of-00004.safetensors 的2/2
2024-07-26
Qwen2-7B-Instruct 的 model-00003-of-00004.safetensors 的1/2
2024-07-26
Qwen2-7B-Instruct 的 model-00002-of-00004.safetensors 的2/2
2024-07-26
Qwen2-7B-Instruct 的 model-00002-of-00004.safetensors 的1/2
2024-07-26
Qwen2-7B-Instruct 的 model-00001-of-00004.safetensors 的2/2
2024-07-25
Qwen2-7B-Instruct 的 model-00001-of-00004.safetensors 的1/2
2024-07-25
torch-2.3.0+cu118-cp38-cp38-linux-x86-64.whl
2024-06-24
meta-llama-3-8b-instruct 的 model-00004-of-00004.safetensors
2024-05-29
meta-llama-3-8b-instruct 的 model-00003-of-00004.safetensors 的3/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00003-of-00004.safetensors 的2/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00003-of-00004.safetensors 的1/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00002-of-00004.safetensors 的3/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00002-of-00004.safetensors 的2/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00002-of-00004.safetensors 的1/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00001-of-00004.safetensors 的3/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00001-of-00004.safetensors 的2/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00001-of-00004.safetensors 的1/3
2024-05-29
huggingface的bert-base-chinese
2024-03-05
huggingface的bert-base-uncased
2024-03-03
自动驾驶,如何得到方向盘转动的ground truth?
2024-03-18
AlphaGo能超越人类,因为训练时 对于模型的每个输入,都有一个100%正确的答案?
2024-01-16
其实LLM/ChatGPT是否在距离AlphaGo式AI越来越远?
2024-01-16
技术上,ChatGPT要成为 AI医生/AI律师/AI教师 还欠缺哪些能力?
2024-01-11
数学 是且仅是 一种语言和一种工具,不是科学的全部?
2023-12-14
哪些时候用CUDA编程更好?
2023-12-14
用RL做NLP,和 根据那条数据的reward重新标注那条数据 有什么区别?
2022-05-07
没有物理机器人载体,如何在模拟环境里的进行学习和研究机器人?
2022-04-28
2022年了,USB式GPU有哪些进展?
2022-04-28
2022年了,有哪些稳压deepfm的CTR模型?
2022-04-01
CTR模型,如果上线了没效果,这时可以进行哪些分析工作?以及有无必要投入大量时间分析?
2022-03-24
算法工程师如何应对做算法策略的不确定性;比如没效果,这时绩效怎么保证?
2022-03-01
CTR模型必须要有一个测试数据集吗? 训练数据集和测试数据集是同一个,可以吗?
2022-02-25
为啥我感觉现在机器学习模型就是一种模糊匹配工具or相似识别工具?
2022-02-16
因果推断技术靠谱吗,感觉里面的影响因素太多了,所以能实际解决落地问题吗?
2022-02-08
XGB/GBDT/决策树,得出特征重要性的原理是什么?
2022-02-08
强化学习是不是无人驾驶的未来?
2022-02-01
GAN生成图像,弄一个discriminator ,和无D直接生成,区别是?
2022-02-01
哪些互联网公司的管理职级和专业职级是分开的?
2022-01-22
CTR模型的AUC如果比较高,是否其实只是 因为复购行为带来的AUC虚高?
2022-01-17
CTR模型的本质是不是算出 user的哪些特征和item的哪些特征 最匹配?
2022-01-08
人工智能的因果学习(Causal Learning)到底想解决什么问题?
2021-12-17
BYOL里stop-gradient的作用是什么?
2021-12-01
马上2022年了,强化学习+NLP 有了哪些突破?
2021-11-26
马上2022年了,pointer-network现在看来的作用是什么?
2021-11-26
总被主管说文档写的不好怎么办?
2021-11-18
NER任务只有一个类的情况下,BME或者Yes-No的数据预处理方式对结果有影响吗?
2021-11-08
学好数学对于编程的真实增益的性价比到底如何?
2021-11-03
学好数学对于编程的真实增益到底是多少?
2021-11-03
如果说每一个数学公式都在描述一件事情,那么数学公式的推导,是在做什么?
2021-10-26
每个物理公式是否都是在【描述】一个事情?
2021-10-12
求通俗讲讲数学或理论物理进行研究的细节,复杂公式是不是也都是由基础公式而来?
2021-09-14
TA创建的收藏夹 TA关注的收藏夹
TA关注的人