services-config.xml配置文件来设置

1.1.1.      services-config.xml配置文件来设置

1 修改工程的属性,修改“附加的编译器参数”,设置services-config.xml配置文件的路径,指向刚建立的网站中的“WEB-INF/flex”中的services-config.xml路径。也可以将services-config.xml这个文件拷贝到调用文件的同级目录中,然后设为-locale en_US-services"services-config.xml"

 

2)配置Flex工程中的services-config.xml。主要是设置这个endpoint属性。让其指向之前得到的网关地址,另外就是设置了“destination”。

<?xml version="1.0" encoding="UTF-8"?>

<services-config>

    <services> 

        <service id="remoting-service"

                 class="flex.messaging.services.RemotingService"

                 messageTypes="flex.messaging.messages.RemotingMessage">

            <destination id="fluorine">

                <channels> 

                    <channel ref="my-amf"/>

                </channels> 

                <properties> 

                    <source>*</source> 

                </properties> 

            </destination> 

        </service> 

    </services> 

    <channels> 

        <channel-definition id="my-amf" class="mx.messaging.channels.AMFChannel">

            <endpoint uri=" http://localhost/Fluorine/Gateway.aspx" 

             class="flex.messaging.endpoints.AMFEndpoint"/>

        </channel-definition>

    </channels>

</services-config>

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
可以通过以下步骤在 Docker 中部署 Hadoop 和 Spark: 1. 安装 Docker 和 Docker Compose。 2. 创建一个 Docker Compose 文件 `docker-compose.yml`: ```yaml version: '3' services: namenode: image: sequenceiq/hadoop-docker:2.7.0 container_name: namenode hostname: namenode ports: - "50070:50070" - "9000:9000" volumes: - ./data:/hadoop/dfs/name - ./config/core-site.xml:/etc/hadoop/core-site.xml - ./config/hdfs-site.xml:/etc/hadoop/hdfs-site.xml environment: - CLUSTER_NAME=hadoop - NODE_TYPE=NAMENODE datanode: image: sequenceiq/hadoop-docker:2.7.0 container_name: datanode hostname: datanode volumes: - ./data:/hadoop/dfs/data - ./config/core-site.xml:/etc/hadoop/core-site.xml - ./config/hdfs-site.xml:/etc/hadoop/hdfs-site.xml environment: - CLUSTER_NAME=hadoop - NODE_TYPE=DATANODE depends_on: - namenode resourcemanager: image: sequenceiq/spark:1.6.0 container_name: resourcemanager hostname: resourcemanager ports: - "8088:8088" - "8042:8042" - "4040:4040" volumes: - ./config/core-site.xml:/etc/hadoop/core-site.xml - ./config/hdfs-site.xml:/etc/hadoop/hdfs-site.xml - ./config/yarn-site.xml:/etc/hadoop/yarn-site.xml environment: - CLUSTER_NAME=hadoop - NODE_TYPE=RESOURCEMANAGER depends_on: - namenode - datanode nodemanager: image: sequenceiq/spark:1.6.0 container_name: nodemanager hostname: nodemanager volumes: - ./config/core-site.xml:/etc/hadoop/core-site.xml - ./config/hdfs-site.xml:/etc/hadoop/hdfs-site.xml - ./config/yarn-site.xml:/etc/hadoop/yarn-site.xml environment: - CLUSTER_NAME=hadoop - NODE_TYPE=NODEMANAGER depends_on: - namenode - datanode - resourcemanager historyserver: image: sequenceiq/spark:1.6.0 container_name: historyserver hostname: historyserver ports: - "18080:18080" volumes: - ./config/core-site.xml:/etc/hadoop/core-site.xml - ./config/hdfs-site.xml:/etc/hadoop/hdfs-site.xml - ./config/yarn-site.xml:/etc/hadoop/yarn-site.xml environment: - CLUSTER_NAME=hadoop - NODE_TYPE=HISTORYSERVER depends_on: - namenode - datanode - resourcemanager - nodemanager ``` 3. 创建一个文件夹 `config`,将 Hadoop 和 Spark 的配置文件 `core-site.xml`、`hdfs-site.xml` 和 `yarn-site.xml` 放入其中。这些文件可以从官方网站下载。 4. 运行以下命令启动容器: ```bash docker-compose up -d ``` 5. 在浏览器中访问 `http://localhost:50070/` 可以查看 Hadoop 的 web 界面,访问 `http://localhost:8088/` 可以查看 YARN 的 web 界面,访问 `http://localhost:18080/` 可以查看 Spark 的 web 界面。 至此,Hadoop 和 Spark 已经在 Docker 中部署完成。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值