(翻译)结构化数据(Structured Format)

问题概述

用户在系统中能够快速输入数据,但输入的数据格式必须符合应用系统内置的数据结构。

示例

(翻译)结构化数据格式(待定) - gc_2299 - gc_2299的博客

 用途

  • 用于当日常操作中采用比较明确的控件(下拉选择框、单选框、复选框等)输入数据比较繁琐时;
  • 用于当用户完成任务耗时远超任务本身的重要性时;
  • 用于需要用户输入特殊类型数据时,例如邮政编码、日期、时间、电话号码等;
  • 用于期望用户输入的内容符合某种格式以便于计算机程序能够快速解析;
  • 当用户输入的内容可以采用多种方式解析时,不要使用此模式,可以参考Forgiving Format模式。

解决方案

设计输入字段的表现方式,使其能够明确的指导或限制用户的数据输入方式。

输入字段旁边附带文本标签描述输入内容,文本标签中描述输入内容必须符合的格式以便用户在字段中输入满足要求的数据。

有时,用户可能采用程序提供的帮助机制以正确的方式填写输入字段内容,例如使用日期选择器。重复多次后,用户逐渐了解输入字段的正确输入方式,此时他们就可以直接手动输入内容了。

说明

将输入字段按预定的格式排列,这样可以传递明确的信号:提示用户应该按格式输入。通过将整体输入字段拆分为小的输入字段集合,可以大大降低用户的错误输入,这好比将一长串数字拆成几段后更容易抄写或记忆。本模式适用于可预测的用户输入,而Forgiving Format适用于开放式的用户输入。

当用户在日常操作中重复填写某一输入项的内容时,在此输入项中使用结构化数据输入方式会节省时间。本模式通过精简和控制用户的数据输入方式,提高应用系统正确获取用户输入的速度,降低无用输入,避免用户输入错误。

 

原文地址:http://ui-patterns.com/patterns/StructuredFormat

 

PS:不知道这个模式的名称该怎么翻译,根据内容来说,format应该是指用户输入的内容是有一个格式的,Structured应该是值应用程序需要的是能将用户输入的内容转换为结构化的数据类型,本模式应该是介绍如何设计用户输入界面才能让用户输入的内容很容易的就转换为应用系统内部的结构化数据。不知道这样理解对不对。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
这里是一个使用Spark Streaming和Spark SQL处理结构化数据的示例: 假设我们有一个实时的用户行为日志,其中包含用户ID、行为类型和时间戳。我们想要实时计算每个用户的行为数量,并将结果存储在一个数据库中。 首先,我们使用Spark Streaming从Kafka中读取实时日志数据,并将其转换为DataFrame: ```scala import org.apache.spark.streaming.kafka.KafkaUtils import org.apache.spark.streaming.{Seconds, StreamingContext} import org.apache.spark.sql.{DataFrame, SparkSession} val spark = SparkSession.builder().appName("StructuredStreamingDemo").getOrCreate() val ssc = new StreamingContext(spark.sparkContext, Seconds(5)) val kafkaParams = Map[String, String]("bootstrap.servers" -> "localhost:9092") val topics = Set("user_behavior_logs") val kafkaStream = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder]( ssc, kafkaParams, topics) val logs = kafkaStream.map(_._2.split(",")) .map(log => (log(0), log(1), log(2).toLong)) .toDF("user_id", "behavior_type", "timestamp") ``` 接下来,我们使用Spark SQL对DataFrame进行查询和聚合操作,计算每个用户的行为数量: ```scala import org.apache.spark.sql.functions._ val result = logs.groupBy("user_id", "behavior_type") .agg(count("*").as("count")) .select("user_id", "behavior_type", "count") result.writeStream .outputMode("update") .format("console") .start() result.writeStream .outputMode("update") .foreach(new JdbcForeachWriter()) .start() ``` 最后,我们可以将结果输出到控制台或数据库中。这里我们使用自定义的JdbcForeachWriter将结果写入MySQL数据库: ```scala import java.sql.{Connection, DriverManager, PreparedStatement} class JdbcForeachWriter extends ForeachWriter[Row] { var conn: Connection = _ var statement: PreparedStatement = _ def open(partitionId: Long, version: Long): Boolean = { Class.forName("com.mysql.jdbc.Driver") conn = DriverManager.getConnection("jdbc:mysql://localhost:3306/test", "root", "password") statement = conn.prepareStatement("INSERT INTO user_behavior(user_id, behavior_type, count) VALUES (?, ?, ?)") true } def process(row: Row): Unit = { statement.setString(1, row.getString(0)) statement.setString(2, row.getString(1)) statement.setLong(3, row.getLong(2)) statement.executeUpdate() } def close(errorOrNull: Throwable): Unit = { statement.close() conn.close() } } ``` 这样,我们就完成了一个使用Spark Streaming和Spark SQL处理结构化数据的示例。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值