一文带小白玩转NFC、门禁卡

本文介绍了NFC技术在华农校园生活中的应用,包括门禁卡辨识、安卓与苹果手机添加加密门禁卡的方法,以及如何使用NFC进行数据写入和操作。此外,还提到了不同类型的门禁卡和它们的区别,以及NFC在日常生活的多功能用途。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

背景介绍

华农有三宝:听力、早操、南湖跑,那跑南湖的时候一定要带着校园卡吗?我宿舍晚归没带校园卡进不去门不很尴尬吗?小区发的的门禁钥匙不够怎么办呢?今天就带大家走进NFC…
在这里插入图片描述

卡类型的区别

门禁卡分为IC卡和ID卡两种,其中,ID卡没有加密措施,IC卡可以加密也可以不加密

市面上的门禁卡大约八成都是加密的IC卡,最好购买cuid类卡片
在这里插入图片描述

如何分辨自己门禁卡的种类呢

只有IC卡才可以写入穿戴装置内,如果你有NFC读写器,放上去听到一声就是IC卡,听到两声就是ID卡。

我没有读卡机?只要手机或穿戴装置可以写入NFC,就可以用做测试。穿戴设备或手机能读取到的就是IC卡,读取不到的就是ID卡

安卓手机新增门禁卡

安卓手机添加门禁一般是在钱包->钥匙中,然后添加门禁卡即可

在这里插入图片描述

苹果手机新增门禁卡

目前官方不提供NFC功能,只有越狱,但又可能会造成系统问题。我们可以选择使用NFC贴纸,将门禁卡信息写到贴纸内,将贴纸贴在手机背面(不会很违和)就可以当做门禁卡用了!!!

在这里插入图片描述

如何新增加密的卡

如果写入了加密的卡片,我们就可以购物、乘坐公交等等,但这需要我们购买NFC读写器进行解密操作,市面上价格20元到100元不等(贫穷显示了我的想象…)
在这里插入图片描述

一些操作与工具

其实NFC不仅仅是门禁卡和消费,同时我们可以用它做一系列操作,例如让手机打开一个链接、让手机直接连接蓝牙、制定一套操作动作,安卓手机写可以用很多软件,例如:NCF Touch+NFC Tools,iPhone用NFC For Business或者NFC Master

我将个人网站地址写入NFC卡片,下次直接读取NFC就会弹出链接,点击就可以直接打开网站地址

在这里插入图片描述

使用手机给NFC卡片写入数据

安卓可以使用NFC百宝箱、iPhone用户可以使用NFC Master

Spark是一个快速通用的集群计算框架,它可以处理大规模数据,并且具有高效的内存计算能力。Spark可以用于各种计算任务,包括批处理、流处理、机器学习等。本文将你了解Spark计算框架的基本概念和使用方法。 一、Spark基础概念 1. RDD RDD(Resilient Distributed Datasets)是Spark的基本数据结构,它是一个分布式的、可容错的、不可变的数据集合。RDD可以从Hadoop、本地文件系统等数据源中读取数据,并且可以通过多个转换操作(如map、filter、reduce等)进行处理。RDD也可以被持久化到内存中,以便下次使用。 2. Spark应用程序 Spark应用程序是由一个驱动程序和多个执行程序组成的分布式计算应用程序。驱动程序是应用程序的主要入口点,它通常位于用户的本地计算机上,驱动程序负责将应用程序分发到执行程序上并收集结果。执行程序是运行在集群节点上的计算单元,它们负责执行驱动程序分配给它们的任务。 3. Spark集群管理器 Spark集群管理器负责管理Spark应用程序在集群中的运行。Spark支持多种集群管理器,包括Standalone、YARN、Mesos等。 二、Spark计算框架使用方法 1. 安装Spark 首先需要安装Spark,可以从Spark官网下载并解压缩Spark安装包。 2. 编写Spark应用程序 编写Spark应用程序通常需要使用Java、Scala或Python编程语言。以下是一个简单的Java代码示例,用于统计文本文件中单词的出现次数: ```java import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import java.util.Arrays; import java.util.Map; public class WordCount { public static void main(String[] args) { SparkConf conf = new SparkConf().setAppName("WordCount").setMaster("local"); JavaSparkContext sc = new JavaSparkContext(conf); JavaRDD<String> lines = sc.textFile("input.txt"); JavaRDD<String> words = lines.flatMap(line -> Arrays.asList(line.split(" ")).iterator()); Map<String, Long> wordCounts = words.countByValue(); for (Map.Entry<String, Long> entry : wordCounts.entrySet()) { System.out.println(entry.getKey() + " : " + entry.getValue()); } sc.stop(); } } ``` 3. 运行Spark应用程序 将编写好的Spark应用程序打包成jar包,并通过以下命令运行: ```bash spark-submit --class WordCount /path/to/wordcount.jar input.txt ``` 其中,--class参数指定应用程序的主类,后面跟上打包好的jar包路径,input.txt是输入文件的路径。 4. 查看运行结果 Spark应用程序运行完毕后,可以查看应用程序的输出结果,例如上述示例中的单词出现次数。 以上就是Spark计算框架的基本概念和使用方法。通过学习Spark,我们可以更好地处理大规模数据,并且提高计算效率。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

笼中小夜莺

嘿嘿嘿,请用金钱尽情地蹂躏我吧

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值