fis--fis-conf.js

//文件编译设置
var path_set = [
{
reg: "/pages/**.jade",
release: "$&"
},
{
reg: "/pages/**.js",
isMod: true
},
{
reg: /^\/modules\/([^\/]+)\/\1\.(js)$/i,
//reg: "/modules/**.js",
isMod: true,
id: "$1"
}
]
//文件打包设置
var pack_set = {

}

//fis-config文件配置
fis.config.merge({
//模块插件配置
modules: {
//编译插件
parser: {
//使用fis-parser-coffee-script插件
//需要安装fis-parser-coffee-script插件
coffee: "coffee-script",
//使用fis-parser-less插件
//需要安装fis-parser-less插件
less: "less",
//使用fis-parser-jade插件
//需要安装fis-parser-jade插件
jade: "jade"
},
//在fis对js、css和类html文件进行语言能力扩展之后调用的插件配置,
// 可以根据 文件后缀 对文件进行后处理。
// 该阶段的插件可以获取文件对象的完整requires信息
postprocessor: {
//js文件会经过jswrapper预处理
js: "jswrapper"
},
//开启postpackager.simple插件,用于将页面中独立的资源引用替换为打包资源
//postpackager.autoload,用于自动加载依赖文件
postpackager: "simple,autoload",
//postpackager: "autoload",
//postpackager: 'simple',
//配置使用csssprites雪碧图
//FIS默认安装了的插件
spriter: "csssprites"
},
settings : {
//雪碧图设置
spriter: {
//设置css sprites的合并间距
csssprites: {
//图之间的边距
margin: 10,
//使用矩阵排列方式,默认为线性`linear`
layout: 'matrix',
//设置了scale,则规则不允许写background-size
scale: 0.5
}
},
//编译后处理设置
postprocessor: {
jswrapper: {
type: "amd"
}
},
//编译设置
parser: {
jade : {
pretty : true//html文本不压缩,默认false
}
}
},
roadmap: {
//编译文件后缀配置
ext: {
//less后缀的文件将输出为css后缀
//并且在parser之后的其他处理流程中被当做css文件处理
less: "css",
//coffee后缀的文件将输出为js文件
//并且在parser之后的其他处理流程中被当做js文件处理
coffee: "js",
//jade后缀的文件将输出为html文件
//并且在parser之后的其他处理流程中被当做html文件处理
jade: "html"
},
//编译文件路径设置
path: path_set
},
//配置文件打包策略
pack: pack_set,
//线上域名路径配置
domain: ""
})

转载于:https://www.cnblogs.com/yinglau/p/4307285.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在Hadoop分布式文件系统(HDFS)中,通常我们会使用Hadoop的API,如`java.io.FileOutputStream`或`org.apache.hadoop.fs.FileSystem`来进行文件操作。以下是一个简单的Java示例,展示如何通过Hadoop的FileSystem API将本地文件上传到HDFS: ```java import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; public class HdfsUploader { public static void main(String[] args) throws Exception { // 初始化配置 Configuration conf = new Configuration(); String hdfsUrl = "hdfs://your-hdfs-cluster-url"; // 替换为你的HDFS集群地址 Path filePath = new Path("your-local-file-path"); // 替换为你本地要上传的文件路径 Path hdfsFilePath = new Path(hdfsUrl + "/target/hdfs-file"); // HDFS目标路径 // 设置HDFS连接 FileSystem fs = FileSystem.get(conf); // 检查目标目录是否存在,如果不存在则创建 if (!fs.exists(hdfsFilePath.getParent())) { fs.mkdirs(hdfsFilePath.getParent()); } // 从本地文件系统读取并写入HDFS FileInputStream fis = new FileInputStream(filePath); FSDataOutputStream out = fs.create(hdfsFilePath); byte[] buffer = new byte[1024]; int length; while ((length = fis.read(buffer)) != -1) { out.write(buffer, 0, length); } fis.close(); out.close(); System.out.println("File uploaded to HDFS at: " + hdfsFilePath); } } ``` 记得替换`your-hdfs-cluster-url`、`your-local-file-path`以及`target/hdfs-file`为你实际的集群URL、本地文件路径及HDFS目标路径。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值