转 用自定义函数获取工作表名称

(一)

有时需要在工作表中引用同一工作簿中其他工作表名称,当工作表数量较多时,逐一手工输入有些繁琐,这时可以添加一个自定义函数来快速获取工作表名称,方法如下:

    按Alt+F11,打开VBA编辑器,单击菜单“插入→模块”,在代码窗口中输入下列代码:

    Function GetSheetName(idx As Integer, Optional relative_position As Boolean) As String
    Application.Volatile
    GetSheetName = Sheets(IIf(relative_position, ActiveSheet.index - -idx, idx)).Name
    End Function

    上述代码定义了一个自定义函数GetSheetName,有两个参数:“idx”为工作表的索引号,“relative_position ”为逻辑型可选参数。“relative_position ”参数为“0”或省略时表示按工作表的绝对位置来获取工作表名称,其取值范围为“1,2,3,……”,当“idx”取这些值时依次获取工作簿中从左到右的第1,2,3,……个工作表的名称;该参数为真时按相对位置来获取工作表名称,即“idx”参数为“0”时取得当前工作表名称,为“-1”时取得其左侧第一个工作表名称,为“1”时取得其右侧第一个工作表名称。

    示例:

    取得第一个工作表的名称:

    =getsheetname(ROW(A1))

    向下拖到填充柄填充公式即可依次取得各工作表名称。

    在G11单元格取得当前工作表的名称:

    =getsheetname(ROW()-11,1)

    向上填充公式可获取其左侧工作表名称,向下填充公式可获取其右侧工作表名称。


(二)

前提:这个工作簿是保存过的,否则公式不生效。
在工作表生任意一个单元格输入
=CELL("filename",A1)
=REPLACE(CELL("filename",A1),1,FIND("]",CELL("filename",A1)),"")&T(NOW())
第一个公式提取完整路径+工作簿名称+工作表名称
第二个只提取当前工作表名称。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hive中的UDTF是用户定义的生成函数,可以将一行输入换为多行输出。以下是Hive中自定义UDTF函数的一些步骤: 1. 创建一个Java类,实现org.apache.hadoop.hive.ql.exec.UDTF接口。该接口需要实现initialize方法、process方法和close方法。 2. 在initialize方法中,可以获取函数的参数,例如输入列的名称和类型等。 3. 在process方法中,可以实现业务逻辑,并将结果输出到Collector对象中。 4. 在close方法中,可以进行一些清理工作。 5. 将Java类打包成jar文件,并上传到Hive中。 6. 在Hive中,使用ADD JAR命令加载jar文件。 7. 创建UDTF函数,使用CREATE FUNCTION命令,并指定INPUT格式和OUTPUT格式等参数。 8. 在Hive中使用UDTF函数,例如使用SELECT语句进行查询。 下面是一个简单的例子: ```java import org.apache.hadoop.hive.ql.exec.UDFArgumentException; import org.apache.hadoop.hive.ql.exec.UDFArgumentLengthException; import org.apache.hadoop.hive.ql.exec.UDFArgumentTypeException; import org.apache.hadoop.hive.ql.exec.UDFReturnType; import org.apache.hadoop.hive.ql.exec.description.JavaUDF; import org.apache.hadoop.hive.ql.metadata.HiveException; import org.apache.hadoop.hive.ql.udf.generic.GenericUDTF; import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector; import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspectorFactory; import org.apache.hadoop.hive.serde2.objectinspector.StructObjectInspector; import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory; import java.util.ArrayList; @JavaUDF(description = "Split a string and output multiple rows", name = "explode_string", returnType = UDFReturnType.TABLE) public class ExplodeStringUDTF extends GenericUDTF { @Override public StructObjectInspector initialize(ObjectInspector[] args) throws UDFArgumentException { if (args.length != 1) { throw new UDFArgumentLengthException("explode_string takes only one argument"); } if (!args[0].getCategory().equals(ObjectInspector.Category.PRIMITIVE)) { throw new UDFArgumentTypeException(0, "explode_string takes only primitive types"); } ArrayList<String> fieldNames = new ArrayList<String>(); ArrayList<ObjectInspector> fieldOIs = new ArrayList<ObjectInspector>(); fieldNames.add("value"); fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector); return ObjectInspectorFactory.getStandardStructObjectInspector(fieldNames, fieldOIs); } @Override public void process(Object[] args) throws HiveException { String input = args[0].toString(); String[] tokens = input.split(","); for (String token : tokens) { String[] fields = {token}; forward(fields); } } @Override public void close() throws HiveException { } } ``` 在Hive中,可以使用以下命令创建UDTF函数: ```sql CREATE FUNCTION explode_string AS 'com.example.ExplodeStringUDTF' USING JAR 'hdfs:///path/to/jar/file.jar'; ``` 使用以下命令查询数据: ```sql SELECT * FROM (SELECT 'a,b,c' AS input) s LATERAL VIEW explode_string(s.input) myTable AS myColumn; ``` 上述查询结果为: ``` myColumn ------- a b c ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值