Fabric 1.0 环境搭建(Ubuntu 16.04)

一、安装必须的软件依赖

 Operating Systems: Ubuntu Linux 14.04 / 16.04 LTS (both 64-bit), or Mac OS 10.12

 Docker Engine: Version 17.03 or higher

 Docker-Compose: Version 1.8 or higher

 Node: 6.x (note version 7 is not supported)

 npm: v3.x or v5.v

 git: 2.9.x

 Python: 2.7.x

 代码编辑器,推荐 VSCode.

 1、Docker环境的安装
 其中Dokcer的安装见docker官网的安装说明:

 https://docs.docker.com/engine/installation/linux/docker-ce/ubuntu/

 其中Dokcer-Compose的安装见docker官网的安装说明:

 https://docs.docker.com/compose/install/

 2、Node安装
 下载nodejs的源码:

 https://nodejs.org/zh-cn/download/

 解压源码,并进入解压后的文件夹执行以下命令:
 ./configure
 make
 sudo make install

 3、git和python安装
 sudo apt install git python2.7为系统自带,无需安装

二、下载Fabric的工具,并拉取镜像

 1、下载相关工具代码

 mkdir ~/fabric-tools && cd ~/fabric-tools

 curl -O https://raw.githubusercontent.com/hyperledger/composer-tools/master/packages/fabric-dev-servers/fabric-dev-servers.zip

 unzip fabric-dev-servers.zip

 2、设置Fabric版本的环境变量

 export FABRIC_VERSION=hlfv1

 3、拉取相关镜像

 cd ~/fabric-tools

 ./downloadFabric.sh   //下载

 ./startFabric.sh //启动

 ./createComposerProfile.sh //创建composer文件

 4、停止并撕毁容器

 cd ~/fabric-tools

 ./stopFabric.sh

 ./teardownFabric.sh

三、可选择的安装Hyperledger Composer开发工具

 npm install -g composer-cli

 npm install -g generator-hyperledger-composer

 npm install -g composer-rest-server

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Ubuntu 16.04是一种常用的Linux操作系统,而Hadoop是一个用于分布式存储和处理大规模数据的开源框架。在Ubuntu 16.04上搭建伪分布式Hadoop环境可以用于学习和测试目的。 以下是搭建伪分布式Hadoop环境的步骤: 1. 安装Java:首先确保已经安装了Java Development Kit (JDK)。可以通过以下命令安装OpenJDK: ``` sudo apt-get update sudo apt-get install openjdk-8-jdk ``` 2. 下载Hadoop:从Hadoop官方网站下载最新版本的Hadoop压缩包,并解压到指定目录。可以使用以下命令进行解压: ``` tar -xzvf hadoop-x.x.x.tar.gz ``` 3. 配置环境变量:编辑`~/.bashrc`文件,并添加以下内容: ``` export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin ``` 4. 配置Hadoop:进入Hadoop的安装目录,编辑`etc/hadoop/core-site.xml`文件,添加以下内容: ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 然后编辑`etc/hadoop/hdfs-site.xml`文件,添加以下内容: ``` <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` 5. 格式化HDFS:运行以下命令来格式化HDFS: ``` hdfs namenode -format ``` 6. 启动Hadoop:运行以下命令启动Hadoop: ``` start-dfs.sh start-yarn.sh ``` 7. 验证Hadoop:在浏览器中访问`http://localhost:50070`,可以看到Hadoop的Web界面。 以上是在Ubuntu 16.04上搭建伪分布式Hadoop环境的基本步骤。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值