- 博客(10)
- 资源 (385)
- 问答 (103)
- 收藏
- 关注
原创 TensorFlow 分布式 managed_session 和 prepare_or_wait_for_session
managed_session在异步模式就是参数初始化完成之后,大家就可以开始干活了。 prepare_or_wait_for_session在同步模式,不但参数初始化完成,还得主节点也准备好了,其他节点才开始干活。
2016-12-29 14:28:02 3828 1
转载 tensorflow 分布式 数据并行 同步训练 between-graph 实例
#coding=utf-8#python example.py --ps_hosts=127.0.0.1:2222 --worker_hosts=127.0.0.1:2224,127.0.0.1:2225 --job_name=ps --task_index=0 --issync=1#python example.py --ps_hosts=127.0.0.1:2222 --worker_host
2016-12-29 14:18:48 3521
转载 tensorflow 分布式 数据并行 异步训练 between-graph 实例
#coding=utf-8import numpy as npimport tensorflow as tf#python example.py --ps_hosts=127.0.0.1:2222 --worker_hosts=127.0.0.1:2224,127.0.0.1:2225 --job_name=ps --task_index=0#python example.py --ps_ho
2016-12-28 16:39:19 3153 2
原创 TensorFlow 合并 / 连接 数组
import tensorflow as tfa = tf.Variable([4,5,6])b = tf.Variable([1,2,3])c = tf.concat(0,[a,b])init_op = tf.initialize_all_variables()with tf.Session() as sess: sess.run(init_op) print(sess.ru
2016-12-26 09:22:18 11975
原创 tensorflow 分布式 全局变量 数据并行 同步训练 in-graph 实例
import tensorflow as tfdef main() : with tf.device("/job:ps/task:0/cpu:0"): a = tf.Variable(1) b = tf.Variable(1) with tf.device("/job:worker/task:0/gpu:
2016-12-21 15:40:40 2418
转载 tensorflow 分布式 MNIST 实例 ,between-graph,CPU
把IP改了之后运行指令pc-01$ python example.py --job_name="ps" --task_index=0 pc-02$ python example.py --job_name="worker" --task_index=0 pc-03$ python example.py --job_name="worker" --task_index=1 pc-04$ pyth
2016-12-21 09:20:59 2670 10
原创 tensorflow 输出权重 到csv或txt
import numpy as npW_val, b_val = sess.run([weights_tensor, biases_tensor])np.savetxt("W.csv", W_val, delimiter=",")np.savetxt("b.csv", b_val, delimiter=",")
2016-12-16 13:59:03 6715 2
原创 Eclipse CDT debug CRF++
据说 CRF++ 与《统计学习方法》的契合度非常之高,所以决定研究CRF++的代码./configure 之后在Makefile里改上CFLAGS = -O3 -Wall -gCXXFLAGS = -O3 -Wall -g然后 make clean make 然后在Eclipse -> Debug Configurations -> C/C++ Application 填上 /path/
2016-12-11 19:29:06 627
原创 HMM 隐马尔可夫模型 代码实现
#encoding:utf-8import sysimport picklefrom copy import deepcopyis_train = FalseDEFAULT_PROB = 0.000000000001MIN_PROB = -1 * float('inf')train_path = "train.in"test_path = "test.in"output_path = "
2016-12-10 20:28:20 7737 1
翻译 Playing Atari with Deep Reinforcement Learning
实践中,因为action-value公式对于每个序列是被分别估计的。所以作为替换,在强化学习,通常用一个 函数拟合器 来估计action-value函数,典型的是一个线性拟合器,但是有时候是一个非线性的函数拟合器比如神经网络。这个神经网络是一个权重为θ的Q-network,这个Q-network可以被最小化 一个序列的损失函数 的方法训练。其中Q是action-value公式 其中 是每次迭代
2016-12-07 09:48:08 720
huggingface.co/Salesforce/blip-image-captioning-base
2024-08-22
Qwen2-7B 的 model-00004-of-00004.safetensors 的2/2
2024-07-29
Qwen2-7B 的 model-00004-of-00004.safetensors 的1/2
2024-07-29
Qwen2-7B 的 model-00003-of-00004.safetensors 的2/2
2024-07-29
Qwen2-7B 的 model-00003-of-00004.safetensors 的1/2
2024-07-29
Qwen2-7B 的 model-00002-of-00004.safetensors 的2/2
2024-07-28
Qwen2-7B 的 model-00002-of-00004.safetensors 的1/2
2024-07-28
Qwen2-7B 的 model-00001-of-00004.safetensors 的2/2
2024-07-28
Qwen2-7B 的 model-00001-of-00004.safetensors 的1/2
2024-07-28
Qwen2-7B-Instruct 的 model-00004-of-00004.safetensors 的2/2
2024-07-26
Qwen2-7B-Instruct 的 model-00004-of-00004.safetensors 的1/2
2024-07-26
Qwen2-7B-Instruct 的 model-00003-of-00004.safetensors 的2/2
2024-07-26
Qwen2-7B-Instruct 的 model-00003-of-00004.safetensors 的1/2
2024-07-26
Qwen2-7B-Instruct 的 model-00002-of-00004.safetensors 的2/2
2024-07-26
Qwen2-7B-Instruct 的 model-00002-of-00004.safetensors 的1/2
2024-07-26
Qwen2-7B-Instruct 的 model-00001-of-00004.safetensors 的2/2
2024-07-25
Qwen2-7B-Instruct 的 model-00001-of-00004.safetensors 的1/2
2024-07-25
torch-2.3.0+cu118-cp38-cp38-linux-x86-64.whl
2024-06-24
meta-llama-3-8b-instruct 的 model-00004-of-00004.safetensors
2024-05-29
meta-llama-3-8b-instruct 的 model-00003-of-00004.safetensors 的3/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00003-of-00004.safetensors 的2/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00003-of-00004.safetensors 的1/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00002-of-00004.safetensors 的3/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00002-of-00004.safetensors 的2/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00002-of-00004.safetensors 的1/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00001-of-00004.safetensors 的3/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00001-of-00004.safetensors 的2/3
2024-05-29
meta-llama-3-8b-instruct 的 model-00001-of-00004.safetensors 的1/3
2024-05-29
huggingface的bert-base-chinese
2024-03-05
huggingface的bert-base-uncased
2024-03-03
自动驾驶,如何得到方向盘转动的ground truth?
2024-03-18
AlphaGo能超越人类,因为训练时 对于模型的每个输入,都有一个100%正确的答案?
2024-01-16
其实LLM/ChatGPT是否在距离AlphaGo式AI越来越远?
2024-01-16
技术上,ChatGPT要成为 AI医生/AI律师/AI教师 还欠缺哪些能力?
2024-01-11
数学 是且仅是 一种语言和一种工具,不是科学的全部?
2023-12-14
哪些时候用CUDA编程更好?
2023-12-14
用RL做NLP,和 根据那条数据的reward重新标注那条数据 有什么区别?
2022-05-07
没有物理机器人载体,如何在模拟环境里的进行学习和研究机器人?
2022-04-28
2022年了,USB式GPU有哪些进展?
2022-04-28
2022年了,有哪些稳压deepfm的CTR模型?
2022-04-01
CTR模型,如果上线了没效果,这时可以进行哪些分析工作?以及有无必要投入大量时间分析?
2022-03-24
算法工程师如何应对做算法策略的不确定性;比如没效果,这时绩效怎么保证?
2022-03-01
CTR模型必须要有一个测试数据集吗? 训练数据集和测试数据集是同一个,可以吗?
2022-02-25
为啥我感觉现在机器学习模型就是一种模糊匹配工具or相似识别工具?
2022-02-16
因果推断技术靠谱吗,感觉里面的影响因素太多了,所以能实际解决落地问题吗?
2022-02-08
XGB/GBDT/决策树,得出特征重要性的原理是什么?
2022-02-08
强化学习是不是无人驾驶的未来?
2022-02-01
GAN生成图像,弄一个discriminator ,和无D直接生成,区别是?
2022-02-01
哪些互联网公司的管理职级和专业职级是分开的?
2022-01-22
CTR模型的AUC如果比较高,是否其实只是 因为复购行为带来的AUC虚高?
2022-01-17
CTR模型的本质是不是算出 user的哪些特征和item的哪些特征 最匹配?
2022-01-08
人工智能的因果学习(Causal Learning)到底想解决什么问题?
2021-12-17
BYOL里stop-gradient的作用是什么?
2021-12-01
马上2022年了,强化学习+NLP 有了哪些突破?
2021-11-26
马上2022年了,pointer-network现在看来的作用是什么?
2021-11-26
总被主管说文档写的不好怎么办?
2021-11-18
NER任务只有一个类的情况下,BME或者Yes-No的数据预处理方式对结果有影响吗?
2021-11-08
学好数学对于编程的真实增益的性价比到底如何?
2021-11-03
学好数学对于编程的真实增益到底是多少?
2021-11-03
如果说每一个数学公式都在描述一件事情,那么数学公式的推导,是在做什么?
2021-10-26
每个物理公式是否都是在【描述】一个事情?
2021-10-12
求通俗讲讲数学或理论物理进行研究的细节,复杂公式是不是也都是由基础公式而来?
2021-09-14
TA创建的收藏夹 TA关注的收藏夹
TA关注的人