tensorflow在linux平台上的搭建

1.下载并安装Anaconda

1.1 下载

从Anaconda官网(https://www.continuum.io/downloads)上下载Linux版本(推荐python3.5)

1.2 安装

cd ~/Downloads

bash Anaconda-4.2.0-Linux-x86_64.sh                      (tips:4.2.0对应python3.5)

询问是否把anaconda的bin添加到用户的环境变量中,选择yes!

安装完成。

2.安装tensorflow

2.1 建立tensorflow运行环境

# Python 2.7  
$ conda create -n tensorflow python=2.7  
 
# Python 3.4  
$ conda create -n tensorflow python=3.4  
 
# Python 3.5  
$ conda create -n tensorflow python=3.5

2.2 在conda环境下安装tensorflow(pip安装方式)

2.2.1 激活conda环境

$ source activate tensorflow

2.2.2 根据tensorflow的版本设置环境变量(以CPU版本为例)

# Ubuntu/Linux 64-bit, CPU only, Python 2.7
(tensorflow)$ export TF_BINARY_URL=https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-0.10.0-cp27-none-linux_x86_64.whl

# Ubuntu/Linux 64-bit, CPU only, Python 3.4
(tensorflow)$ export TF_BINARY_URL=https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-0.10.0-cp34-cp34m-linux_x86_64.whl

# Ubuntu/Linux 64-bit, CPU only, Python 3.5
(tensorflow)$ export TF_BINARY_URL=https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-0.10.0-cp35-cp35m-linux_x86_64.whl

2.2.3 安装tensorflow

# Python 2
(tensorflow)$ pip install --ignore-installed --upgrade $TF_BINARY_URL

# Python 3
(tensorflow)$ pip3 install --ignore-installed --upgrade $TF_BINARY_URL

这里注意不要使用sudo命令,否则在设置pycharm时候会提示找不到tensorflow。另外,如果提示没有找到pip3,请使用 sudo apt-get install python3-pip 安装。

上述步骤安装完成后,从conda环境中退出

(tensorflow)$ source deactivate 

安装完成。

3.安装pycharm

pycharm是目前使用最多的python IDE,界面简洁美观,安装简单.

3.1 下载pycharm

从官网(http://www.jetbrains.com/pycharm/download/#section=linux)下载Community版 for Linux。并将下载好的文件copy到想安装的目录下(我的为/home/zhichao/pycharm)。

3.2 安装pycharm

1)cd 到安装目录

cd home/zhichao/pycharm

2)解压缩(可手动解压缩)

tar xfz pycharm-community-2017.1.4.tar.gz

3)打开 pycharm.sh 文件所在目录

cd pycharm-community-2017.1.4/bin

4)安装

./pycharm.sh

接下来按照安装提示一步步继续就可以了。

3.3 创建tensorflow工程

注意python解释器的选择和之前一篇文章中选择的路径相同。

其次如果在pycharm中无法顺利导入外部包,可以在命令行中source activate tensorflow后,使用命令   conda install 包名 安装所需要的包。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Transformer是一种用于自然语言处理任务的深度学习模型架构,它在2017年由Google提出,并在机器翻译任务中取得了显著的突破。Transformer的核心思想是使用自注意力机制(self-attention)来捕捉输入序列中不同位置之间的依赖关系,从而实现对序列的建模。 Transformer架构主要由编码器(Encoder)和解码器(Decoder)两部分组成。编码器负责将输入序列进行编码,解码器则根据编码器的输出生成目标序列。 在编码器中,输入序列首先通过一个嵌入层将每个单词转换为向量表示。然后,这些向量经过多个相同的自注意力层和前馈神经网络层进行处理。自注意力层通过计算每个单词与其他单词之间的相关性得到每个单词的上下文表示。前馈神经网络层则对每个单词的上下文表示进行非线性变换。编码器可以堆叠多个这样的自注意力层和前馈神经网络层。 解码器与编码器类似,但在自注意力层中引入了额外的注意力机制,用于对编码器输出的信息进行关注。此外,解码器还包括一个线性层,用于将解码器的输出映射为目标序列的概率分布。 要在Linux搭建Transformer的环境,可以按照以下步骤进行: 1. 安装Python和相关依赖:在Linux上安装Python,并使用pip安装所需的库,如TensorFlow或PyTorch。 2. 下载Transformer代码和数据:从相关的代码仓库或官方网站下载Transformer的代码和预训练模型,同时准备好用于训练和测试的数据集。 3. 配置环境:根据代码的要求,配置相应的环境变量和路径。 4. 训练模型:使用提供的训练脚本或代码,加载数据集并进行模型训练。根据需要,可以调整超参数和模型结构。 5. 测试模型:使用训练好的模型对新的输入进行测试,评估模型的性能和效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值