自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Talk Is Cheap

If You Get Tired, Learn To Rest, Not To Quit

  • 博客(13)
  • 资源 (385)
  • 问答 (103)
  • 收藏
  • 关注

转载 不少Gate或Node运算子 的反向传播代码

https://github.com/vinhkhuc/MemN2N-babi-python/blob/master/memn2n/nn.py

2017-02-27 09:33:40 729

翻译 End-To-End Memory Networks 论文翻译

摘要我们介绍一种 在大的外置内存的 带循环注意力模型 的神经网络。架构是Memory Network的一种,而需要较少的监督学习, 它也能被看做是一种RNNsearch的扩展。 它可以用作问答系统和语言模型。1 引言两个标志性的人工智能研究的挑战是制作这两种模型:在回答问题的任务里 制作多个计算步骤 以及 在顺序数据里 描述长的元素依赖。在这篇论文里我们提出一种新颖的RNN,它在输出一个符号

2017-02-23 17:35:59 3081

原创 theano scan arange shape 实例

import theanoimport numpy as npimport theano.tensor as Tones1 = theano.shared(np.float32([[1,2,3],[4,5,6],[7,8,9]]))ones2 = theano.shared(np.float32([[9,8,7],[6,5,4],[3,2,1]]))print(ones1.eval())prin

2017-02-20 21:15:06 823

原创 theano scan 实例

import theanoimport numpy as npones1 = theano.shared(np.float32([[1,2,3],[4,5,6],[7,8,9]]))ones2 = theano.shared(np.float32([[9,8,7],[6,5,4],[3,2,1]]))print(ones1.eval())outputs, updates = theano.sca

2017-02-20 21:11:10 540

原创 theano scan 实例

import theanoimport numpy as npones = theano.shared(np.float32([[1,2,3],[4,5,6],[7,8,9]]))print(ones.eval())outputs, updates = theano.scan(lambda result : result + 1, se

2017-02-20 20:58:45 639

原创 theano concatenate 实例

import theanoimport numpy as npimport theano.tensor as Tones = theano.shared(np.float32([[1,2,3],[4,5,6],[7,8,9]]))print(ones.get_value())result = T.concatenate([ones,ones],axis=0)print(result.eval(

2017-02-20 14:03:19 2523

原创 theano stack 实例

import theanoimport numpy as npimport theano.tensor as Tones = theano.shared(np.float32([[1,2,3],[4,5,6],[7,8,9]]))print(ones.get_value())result = T.stack([ones,ones],axis=0)print(result.eval())resu

2017-02-20 13:54:51 1331

原创 theano reshape -1

import theanoimport numpy as npones = theano.shared(np.float32([[1,2,3],[4,5,6],[7,8,9]]))print(ones.get_value())print(ones.reshape([1,-1]).eval())print(ones.reshape((1,-1)).eval())print(ones.reshape(

2017-02-17 15:16:31 1883

转载 word2vec Skip-gram模型精华理解

https://github.com/jikexueyuanwiki/tensorflow-zh/blob/master/SOURCE/tutorials/word2vec.md#skip-gram-模型

2017-02-14 14:27:13 2392

原创 tensorflow 分布式 数据并行 异步训练 between-graph 自己写的实例 RNN

#运行方法见上一篇文章import tensorflow as tfFLAGS = tf.app.flags.FLAGStf.app.flags.DEFINE_string('job_name', '', 'One of "ps", "worker"')tf.app.flags.DEFINE_string('ps_hosts', '', "

2017-02-10 17:47:34 2580

原创 tensorflow 分布式 数据并行 in-graph 自己写的实例

# 通用的数据并行还是推荐between-graph的,因为in-graph要自己归并cost之类的# 10.100.203.75这台运行#python test_dis.py --job_name=worker --ps_hosts=10.100.203.75:1111 --worker_hosts=10.100.206.209:2222,10.100.203.75:2223 --task_id

2017-02-10 13:58:05 2938 3

原创 tensorflow 分布式 数据并行 异步训练 between-graph 自己写的实例 CNN

# 通用的数据并行还是推荐between-graph的,因为in-graph要自己归并cost之类的# 10.100.203.75这台运行#python test_dis2.py --job_name=worker --ps_hosts=10.100.203.75:1111 --worker_hosts=10.100.206.209:2222,10.100.203.75:2223 --task_i

2017-02-10 13:48:06 2056 1

翻译 memory network 论文翻译

摘要Memory Networks 通过结合长时记忆模块 和 推断模块 联合工作来进行推理。长时记忆模块可以进行读写,也为了用来预测。我们是为了问答系统来研究这个模型,长时记忆模块正作为问答系统的(类似内存的)知识库。问题引出现在的RNN记忆能力不行,本文解决这个问题。核心思想是弄一个读写的内存组件。Memory Networks基本框架一个Memory Networks包括一个内存m(也就是一个对

2017-02-05 21:53:19 1126

huggingface.co/Salesforce/blip-image-captioning-base

clone from https://huggingface.co/Salesforce/blip-image-captioning-base

2024-08-22

huggingface的bert-base-uncased.zip的split的2/2

huggingface的bert-base-uncased.zip的split的2/2

2024-08-21

huggingface的bert-base-uncased.zip的split的1/2

huggingface的bert-base-uncased.zip的split的1/2

2024-08-21

Qwen2-7B 的 model-00004-of-00004.safetensors 的2/2

Qwen2-7B 的 model-00004-of-00004.safetensors 的2/2

2024-07-29

Qwen2-7B 的 model-00004-of-00004.safetensors 的1/2

Qwen2-7B 的 model-00004-of-00004.safetensors 的1/2

2024-07-29

Qwen2-7B 的 model-00003-of-00004.safetensors 的2/2

Qwen2-7B 的 model-00003-of-00004.safetensors 的2/2

2024-07-29

Qwen2-7B 的 model-00003-of-00004.safetensors 的1/2

Qwen2-7B Base 的 model-00003-of-00004.safetensors 的1/2

2024-07-29

Qwen2-7B 的 model-00002-of-00004.safetensors 的2/2

Qwen2-7B 的 model-00002-of-00004.safetensors 的2/2

2024-07-28

Qwen2-7B 的 model-00002-of-00004.safetensors 的1/2

Qwen2-7B 的 model-00002-of-00004.safetensors 的1/2

2024-07-28

Qwen2-7B 的 model-00001-of-00004.safetensors 的2/2

Qwen2-7B 的 model-00001-of-00004.safetensors 的2/2

2024-07-28

Qwen2-7B 的 model-00001-of-00004.safetensors 的1/2

Qwen2-7B 的 model-00001-of-00004.safetensors 的1/2

2024-07-28

Qwen2-7B-Instruct 的 model-00004-of-00004.safetensors 的2/2

Qwen2-7B-Instruct 的 model-00004-of-00004.safetensors 的2/2

2024-07-26

Qwen2-7B-Instruct 的 model-00004-of-00004.safetensors 的1/2

Qwen2-7B-Instruct 的 model-00004-of-00004.safetensors 的1/2

2024-07-26

Qwen2-7B-Instruct 的 model-00003-of-00004.safetensors 的2/2

Qwen2-7B-Instruct 的 model-00003-of-00004.safetensors 的2/2

2024-07-26

Qwen2-7B-Instruct 的 model-00003-of-00004.safetensors 的1/2

Qwen2-7B-Instruct 的 model-00003-of-00004.safetensors 的1/2

2024-07-26

Qwen2-7B-Instruct 的 model-00002-of-00004.safetensors 的2/2

Qwen2-7B-Instruct 的 model-00002-of-00004.safetensors 的2/2

2024-07-26

Qwen2-7B-Instruct 的 model-00002-of-00004.safetensors 的1/2

Qwen2-7B-Instruct 的 model-00002-of-00004.safetensors 的1/2

2024-07-26

Qwen2-7B-Instruct 的 model-00001-of-00004.safetensors 的2/2

Qwen2-7B-Instruct 的 model-00001-of-00004.safetensors 的2/2

2024-07-25

Qwen2-7B-Instruct 的 model-00001-of-00004.safetensors 的1/2

Qwen2-7B-Instruct 的 model-00001-of-00004.safetensors 的1/2

2024-07-25

libstemmer-java-2.2.0.tar.gz

多国语言的词根提取

2024-07-24

torch-2.3.0+cu118-cp38-cp38-linux-x86-64.whl

pip3 install torch-2.3.0+cu118-cp38-cp38-linux_x86_64.whl

2024-06-24

meta-llama-3-8b-instruct 的 model-00004-of-00004.safetensors

meta-llama-3-8b-instruct 的 model-00004-of-00004.safetensors

2024-05-29

meta-llama-3-8b-instruct 的 model-00003-of-00004.safetensors 的3/3

meta-llama-3-8b-instruct 的 model-00003-of-00004.safetensors 的3/3

2024-05-29

meta-llama-3-8b-instruct 的 model-00003-of-00004.safetensors 的2/3

meta-llama-3-8b-instruct 的 model-00003-of-00004.safetensors 的2/3

2024-05-29

meta-llama-3-8b-instruct 的 model-00003-of-00004.safetensors 的1/3

meta-llama-3-8b-instruct 的 model-00003-of-00004.safetensors 的1/3

2024-05-29

meta-llama-3-8b-instruct 的 model-00002-of-00004.safetensors 的3/3

meta-llama-3-8b-instruct 的 model-00002-of-00004.safetensors 的3/3

2024-05-29

meta-llama-3-8b-instruct 的 model-00002-of-00004.safetensors 的2/3

meta-llama-3-8b-instruct 的 model-00002-of-00004.safetensors 的2/3

2024-05-29

meta-llama-3-8b-instruct 的 model-00002-of-00004.safetensors 的1/3

meta-llama-3-8b-instruct 的 model-00002-of-00004.safetensors 的1/3

2024-05-29

meta-llama-3-8b-instruct 的 model-00001-of-00004.safetensors 的3/3

meta-llama-3-8b-instruct 的 model-00001-of-00004.safetensors 的3/3

2024-05-29

meta-llama-3-8b-instruct 的 model-00001-of-00004.safetensors 的2/3

meta-llama-3-8b-instruct 的 model-00001-of-00004.safetensors 的2/3

2024-05-29

meta-llama-3-8b-instruct 的 model-00001-of-00004.safetensors 的1/3

meta-llama-3-8b-instruct 的 model-00001-of-00004.safetensors 的1/3

2024-05-29

stanford-corenlp-4.5.6.zip

https://nlp.stanford.edu/software/stanford-corenlp-4.5.6.zip

2024-03-12

huggingface的bert-base-chinese

https://huggingface.co/google-bert/bert-base-chinese pytorch和tensorflow都有

2024-03-05

huggingface的bert-base-uncased

https://huggingface.co/google-bert/bert-base-uncased pytorch和tensorflow都有

2024-03-03

TREC-6 文本分类数据集

https://www.tensorflow.org/datasets/catalog/trec

2024-02-22

chatglm3-6b的模型参数文件0/7

这个是除了7个大文件之外的所有小文件

2023-11-30

chatglm3-6b的模型参数文件6/7

chatglm3-6b的模型参数文件6/7

2023-11-29

chatglm3-6b的模型参数文件5/7

chatglm3-6b的模型参数文件5/7

2023-11-29

chatglm3-6b的模型参数文件4/7

chatglm3-6b的模型参数文件4/7

2023-11-29

chatglm3-6b的模型参数文件7/7

chatglm3-6b的模型参数文件7/7

2023-11-28

自动驾驶,如何得到方向盘转动的ground truth?

2024-03-18

AlphaGo能超越人类,因为训练时 对于模型的每个输入,都有一个100%正确的答案?

2024-01-16

其实LLM/ChatGPT是否在距离AlphaGo式AI越来越远?

2024-01-16

技术上,ChatGPT要成为 AI医生/AI律师/AI教师 还欠缺哪些能力?

2024-01-11

数学 是且仅是 一种语言和一种工具,不是科学的全部?

2023-12-14

哪些时候用CUDA编程更好?

2023-12-14

MetaLearning是LearnToLearn,那如何解决LearnToLearnToLearn?

2022-05-24

BERT/GPT是 精确存储了所有每句话的“语义” 还是得出每句话的少数服从多数的统计“语义”?

2022-05-09

用RL做NLP,和 根据那条数据的reward重新标注那条数据 有什么区别?

2022-05-07

没有物理机器人载体,如何在模拟环境里的进行学习和研究机器人?

2022-04-28

2022年了,USB式GPU有哪些进展?

2022-04-28

2022年了,有哪些稳压deepfm的CTR模型?

2022-04-01

CTR模型,如果上线了没效果,这时可以进行哪些分析工作?以及有无必要投入大量时间分析?

2022-03-24

算法工程师如何应对做算法策略的不确定性;比如没效果,这时绩效怎么保证?

2022-03-01

CTR模型必须要有一个测试数据集吗? 训练数据集和测试数据集是同一个,可以吗?

2022-02-25

有人搞过离线CTR模型么,缓存每个user对每个item的打分,没缓存的item默认处理,靠谱吗?

2022-02-18

把user买过的item的名字embedding后作为特征,以及item本身的名字embedding作为特征,这两个特征加到CTR模型,会有效果吧?

2022-02-16

为啥我感觉现在机器学习模型就是一种模糊匹配工具or相似识别工具?

2022-02-16

因果推断技术靠谱吗,感觉里面的影响因素太多了,所以能实际解决落地问题吗?

2022-02-08

XGB/GBDT/决策树,得出特征重要性的原理是什么?

2022-02-08

强化学习是不是无人驾驶的未来?

2022-02-01

GAN生成图像,弄一个discriminator ,和无D直接生成,区别是?

2022-02-01

哪些互联网公司的管理职级和专业职级是分开的?

2022-01-22

CTR模型的AUC如果比较高,是否其实只是 因为复购行为带来的AUC虚高?

2022-01-17

CTR模型的本质是不是算出 user的哪些特征和item的哪些特征 最匹配?

2022-01-08

人工智能的因果学习(Causal Learning)到底想解决什么问题?

2021-12-17

BYOL里stop-gradient的作用是什么?

2021-12-01

马上2022年了,强化学习+NLP 有了哪些突破?

2021-11-26

马上2022年了,pointer-network现在看来的作用是什么?

2021-11-26

总被主管说文档写的不好怎么办?

2021-11-18

NER任务只有一个类的情况下,BME或者Yes-No的数据预处理方式对结果有影响吗?

2021-11-08

为什么机器翻译文本生成,至今仍然在用transformer-auto-regressive的别扭架构?

2021-11-08

Float特征直接输入deepCTR模型和分桶转成int再embedding输入的区别是?

2021-11-08

学好数学对于编程的真实增益的性价比到底如何?

2021-11-03

学好数学对于编程的真实增益到底是多少?

2021-11-03

如果说每一个数学公式都在描述一件事情,那么数学公式的推导,是在做什么?

2021-10-26

研究出 通用人工智能/曲率引擎/黎曼猜想/可控核聚变/零事故飞行汽车/量子计算机/治愈癌症 的难度排名?

2021-10-20

每个物理公式是否都是在【描述】一个事情?

2021-10-12

求通俗讲讲数学或理论物理进行研究的细节,复杂公式是不是也都是由基础公式而来?

2021-09-14

基于对比学习(Contrastive Learning)的文本表示模型【为什么】能学到语义【相似】度?

2021-08-17

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除