- 博客(10)
- 资源 (385)
- 问答 (103)
- 收藏
- 关注
原创 python 在中文中找出英文单词 正则表达式实例
import reresult_list = re.findall('[a-zA-Z0-9]+',input_line)findall返回所有 成一个list 加号代表匹配一个或多个
2017-05-19 08:34:28 21043
原创 seq2seq 做翻译,训练时 最终feed的数据的样子(接上文)
50是“但” 76是“等了” 58是 “五年” 之所以有多个50 50 50 50是因为batchsize比数据量大 1是开始 2是句子结束 可见 竖列 前四个也是一样的 76是 “but” 64是 “waited” 100是 “5” 5是 “years” 可见00-09的前4竖列是1,对应decoder_inputs的长度
2017-05-12 16:35:10 869
原创 seq2seq 做翻译,预测时 最终feed的数据的样子(接上文)
输入的是“有人 依然 单身” 三个词的id是49,55,14 1的意思是 以及
2017-05-12 16:15:15 814
原创 seq2seq 做翻译,预测时 用argmax的原因
在这里https://github.com/tensorflow/models/blob/master/tutorials/rnn/translate/translate.py#L282 outputs = [int(np.argmax(logit, axis=1)) for logit in output_logits]最初很难理解,其实就是在所有词里选概率最大的 if output_p
2017-05-12 15:55:16 1033
原创 seq2seq 预测时 feed 自己的数据 (接上文)
def decode(): # 改写这个函数 with tf.Session() as sess: # Create model and load parameters. model = create_model(sess, True) model.batch_size = 1 # We decode one sentence at a time. # Load
2017-05-12 11:21:12 842
原创 seq2seq 训练时 feed 自己的数据
在这个文件加入以下代码https://github.com/tensorflow/models/blob/master/tutorials/rnn/translate/translate.pydef vectorize_data(data, word_idx): #word_idx >=1 ,frist is unknow-token Q = [] for line in data:
2017-05-12 10:42:19 1750
原创 netty, ByteBuf 转 String
ByteBuf bf =req.content(); byte[] byteArray = new byte[bf.capacity()]; bf.readBytes(byteArray); String result = new String(byteArray);
2017-05-11 16:01:14 12006 1
原创 chatbot 论文收集
Response Selection with Topic Clues for Retrieval-based ChatbotsSequential Matching Network: A New Archtechture for Multi-turn Response Selection in Retrieval-based Chatbotshttps://arxiv.org/find/all/1
2017-05-08 14:41:26 1680
原创 CNN文本分类 论文收集
Sequential Short-Text Classification with Recurrent and Convolutional Neural NetworksRecurrent Convolutional Neural Networks for Text ClassificationImproved Deep Learning Baselines for Ubuntu Corpus Di
2017-05-08 13:58:23 2134 2
原创 python 构造三维全零数组
temp1 = [[] for i in range(10)]temp2 = [temp1 for i in range(20)]temp3 = [temp2 for i in range(30)]for i in range(30): for j in range(20): for k in range(10): temp3[i][j][k]
2017-05-04 18:26:18 5044 1
huggingface.co/Salesforce/blip-image-captioning-base
2024-08-22
Qwen2-7B 的 model-00004-of-00004.safetensors 的2/2
2024-07-29
Qwen2-7B 的 model-00004-of-00004.safetensors 的1/2
2024-07-29
Qwen2-7B 的 model-00003-of-00004.safetensors 的2/2
2024-07-29
Qwen2-7B 的 model-00003-of-00004.safetensors 的1/2
2024-07-29
Qwen2-7B 的 model-00002-of-00004.safetensors 的2/2
2024-07-28
Qwen2-7B 的 model-00002-of-00004.safetensors 的1/2
2024-07-28
Qwen2-7B 的 model-00001-of-00004.safetensors 的2/2
2024-07-28
Qwen2-7B 的 model-00001-of-00004.safetensors 的1/2
2024-07-28
Qwen2-7B-Instruct 的 model-00004-of-00004.safetensors 的2/2
2024-07-26
Qwen2-7B-Instruct 的 model-00004-of-00004.safetensors 的1/2
2024-07-26
Qwen2-7B-Instruct 的 model-00003-of-00004.safetensors 的2/2
2024-07-26
Qwen2-7B-Instruct 的 model-00003-of-00004.safetensors 的1/2
2024-07-26
Qwen2-7B-Instruct 的 model-00002-of-00004.safetensors 的2/2
2024-07-26
Qwen2-7B-Instruct 的 model-00002-of-00004.safetensors 的1/2
2024-07-26
Qwen2-7B-Instruct 的 model-00001-of-00004.safetensors 的2/2
2024-07-25
Qwen2-7B-Instruct 的 model-00001-of-00004.safetensors 的1/2
2024-07-25
torch-2.3.0+cu118-cp38-cp38-linux-x86-64.whl
2024-06-24
meta-llama-3-8b-instruct 的 model-00004-of-00004.safetensors
2024-05-29
meta-llama-3-8b-instruct 的 model-00003-of-00004.safetensors 的3/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00003-of-00004.safetensors 的2/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00003-of-00004.safetensors 的1/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00002-of-00004.safetensors 的3/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00002-of-00004.safetensors 的2/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00002-of-00004.safetensors 的1/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00001-of-00004.safetensors 的3/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00001-of-00004.safetensors 的2/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00001-of-00004.safetensors 的1/3
2024-05-29
huggingface的bert-base-chinese
2024-03-05
huggingface的bert-base-uncased
2024-03-03
自动驾驶,如何得到方向盘转动的ground truth?
2024-03-18
AlphaGo能超越人类,因为训练时 对于模型的每个输入,都有一个100%正确的答案?
2024-01-16
其实LLM/ChatGPT是否在距离AlphaGo式AI越来越远?
2024-01-16
技术上,ChatGPT要成为 AI医生/AI律师/AI教师 还欠缺哪些能力?
2024-01-11
数学 是且仅是 一种语言和一种工具,不是科学的全部?
2023-12-14
哪些时候用CUDA编程更好?
2023-12-14
用RL做NLP,和 根据那条数据的reward重新标注那条数据 有什么区别?
2022-05-07
没有物理机器人载体,如何在模拟环境里的进行学习和研究机器人?
2022-04-28
2022年了,USB式GPU有哪些进展?
2022-04-28
2022年了,有哪些稳压deepfm的CTR模型?
2022-04-01
CTR模型,如果上线了没效果,这时可以进行哪些分析工作?以及有无必要投入大量时间分析?
2022-03-24
算法工程师如何应对做算法策略的不确定性;比如没效果,这时绩效怎么保证?
2022-03-01
CTR模型必须要有一个测试数据集吗? 训练数据集和测试数据集是同一个,可以吗?
2022-02-25
为啥我感觉现在机器学习模型就是一种模糊匹配工具or相似识别工具?
2022-02-16
因果推断技术靠谱吗,感觉里面的影响因素太多了,所以能实际解决落地问题吗?
2022-02-08
XGB/GBDT/决策树,得出特征重要性的原理是什么?
2022-02-08
强化学习是不是无人驾驶的未来?
2022-02-01
GAN生成图像,弄一个discriminator ,和无D直接生成,区别是?
2022-02-01
哪些互联网公司的管理职级和专业职级是分开的?
2022-01-22
CTR模型的AUC如果比较高,是否其实只是 因为复购行为带来的AUC虚高?
2022-01-17
CTR模型的本质是不是算出 user的哪些特征和item的哪些特征 最匹配?
2022-01-08
人工智能的因果学习(Causal Learning)到底想解决什么问题?
2021-12-17
BYOL里stop-gradient的作用是什么?
2021-12-01
马上2022年了,强化学习+NLP 有了哪些突破?
2021-11-26
马上2022年了,pointer-network现在看来的作用是什么?
2021-11-26
总被主管说文档写的不好怎么办?
2021-11-18
NER任务只有一个类的情况下,BME或者Yes-No的数据预处理方式对结果有影响吗?
2021-11-08
学好数学对于编程的真实增益的性价比到底如何?
2021-11-03
学好数学对于编程的真实增益到底是多少?
2021-11-03
如果说每一个数学公式都在描述一件事情,那么数学公式的推导,是在做什么?
2021-10-26
每个物理公式是否都是在【描述】一个事情?
2021-10-12
求通俗讲讲数学或理论物理进行研究的细节,复杂公式是不是也都是由基础公式而来?
2021-09-14
TA创建的收藏夹 TA关注的收藏夹
TA关注的人