Java30天养成计划 || 01 谈点儿干货

写在前面,大家好!我是【跨考菌】,一枚跨界的程序猿,专注于后台技术的输出,目标成为全栈攻城狮!这博客是对我跨界过程的总结和思考。如果你也对Java后端技术感兴趣,抑或是正在纠结于跨界,都可以关注我的动态,让我们一起学习,一起进步~
我的博客地址为:【跨考菌】的博客


前言:

我是从其他专业转行到计算机专业的,深刻感受到小白在学习Java时找资料、课程难度深浅不一的痛点,这里我打算把自己准备实习和找工作中的Java笔记通过博客的方式分享出来,在力求内容完整的基础上,力求通俗易懂,旨在帮助小白快速上手Java核心知识!

这个《Java30天养成计划》我准备了一个月的内容,每日一篇。专门为小白量身定做,不用担心没有编程基础。跟着我的内容坚持下来,多敲多练,进入大厂你也可以的,那我们开始吧!

在这里插入图片描述

系列文章,持续更新:

Java30天养成计划 || 01 谈点儿干货
Java30天养成计划 || 02 手把手教你搭建Java开发环境
Java30天养成计划 || 03 数据类型
Java30天养成计划 || 04 Java运算符&流程控制
Java30天养成计划 || 05 超全整理Java常用API
Java30天养成计划 || 06 史上最通俗易懂Java数组
Java30天养成计划 || 07一文吃透Java函数
Java30天养成计划 || 08 面向对象特性——封装||继承||多态
Java30天养成计划 || 09 不可不知Java异常
Java30天养成计划 || 10 超全整理Java集合类
Java30天养成计划 || 11 快速上手Java泛型
Java30天养成计划 || 12 深入理解Java多线程
Java30天养成计划 || 13 超全Java IO系列,面试必备~
Java30天养成计划 || 14 快速上手Java网络编程
Java30天养成计划 || 15 快速上手Java枚举和反射
Java30天养成计划 || 16 面试必问Java8新特性
Java30天养成计划 || 17 你还不会调试程序吗?看看这篇就会了~


1、我与Java的邂逅

还是先讲讲,我和Java的故事吧!转行计算机,如何成功进入大厂?

初识】我是从其他专业跨考到计算机专业的。本科阶段只学过C,最早接触Java是在17年的冬天,那个时候刚刚结束考研,为了准备次年3月份的复试上级考试,开始入坑Java。作为小白,学习的过程极度缓慢(跨考的同学应该深有体会哈!),基本就是照着B站上的Java教程敲每个知识点的案例,不断熟悉javaSE的基础语法。

完善】读研之后,逐渐接触了实际项目和后端的框架(在校期间多是SpringBoot系列),在实践中逐渐完善了java学习体系:Java8新特性、集合类的源码分析(面试高频)、Java同步类源码(面试高频)以及基于Java语言开发的框架Dubbo RPC框架等。

总结】转行转眼间快3年了,回过头来看自己学习的进程,深有感触!

  • 编程语言只是一种工具,选择哪一种其实影响都不大(Java、C++、Go),其实不需要对所有的API都熟悉,开发中不熟的API可以即用即查,在实际项目中提高熟练度,重要的是编程思想的掌握,有兴趣多看看源码。拿鹅厂举例,在腾讯内部同时有C++,Java,Go语言,除了编程语言和业务强相关的事业群外(如wechat对C++要求较高),很少因为编程语言卡你,并且开发中你可以选择自己熟悉的语言完成开发。只要你对其中一门语言掌握的比较透彻,即便是换语言,也能快速上手!
  • 梳理知识点很重要!好记性不如烂笔头。很多同学学习编程有个很深的感触,就是很快就忘了。我个人比较喜欢总结自己学过的知识点,实在是对遗忘症深恶痛绝。每次面临考试的时候只需要看看自己的笔记,就可以以最快的速度回忆起相关内容,而不用再在博客上一次次的搜索,然后忘记,这样恶性虚循环!
    在这里插入图片描述
  • 源码研究很关键!对Java常用的API比较熟悉之后,最好要求自己死磕核心类的源码实现(例如:面试常问的集合类、并发类,这些后面我也会出系列文章)。其实看源码的习惯在公司中还是比较重要的,比如,如果你的工作涉及到性能瓶颈的时候,就需要知道你代码中哪些容器用的不合适或者JVM参数需要调整等,这些都涉及到对源码原理的理解基础上。

好了,就先啰嗦这么多吧,有兴趣的小伙伴,好好学习吧!一起加油~

2、Java在大厂的应用场景

选择一门语言,首选要考虑的是你想从事什么领域的工作

Java广泛应用于各大互联网公司的后台的云计算并发处理数据库处理等场景。

对于大厂来说,Java是各稳妥的选择。

Java自身生态比较成熟,解决各种场景下解决方案都比较成熟,小到单体应用,大到服务拆分,微服务都有成熟的、经过业界考验的方案。

语言本身虽然不是纯粹面向对象,但是面向对象的精髓都是有的,并且语言容易使用,工具链很好的支持大规模重构,这使得Java在大规模合作场景下很稳,不容易自己出错,也不容易被小伙伴用错。

如果你也在学习Java的路上,那么和我一起吧~

很多小白可能还在纠结于选择什么语言的路上。过来人觉得Java在众多语言栈中还是具备较大优势的。 首先Java语言的生态成熟,各类场景下的插件较完善,相比于Go和C++比较容易跳槽;另外,等你真正入行的时候你会发现,其实选择的语言栈没那么重要,因为目前较火的几门语言:go、java、c++编程思想较为类似,熟练掌握了其中一门后,转语言可能只需要1周时间熟悉下语法就可以参与开发了。

举个栗子吧:面试鹅厂就算你不会C++问题也不大(除了wxg这样的部门),他们更关注的是你对自己熟悉的语言和计算机基础知识的掌握程度。

3、课程大纲

本专栏在保证内容完整的基础上,力求通俗易懂,旨在帮助小白更快的掌握Java核心知识点。这个Java30天养成计划专栏我准备分为JavaSE基础和JavaSE进阶两个阶段。这是一套完整、循序渐进的Java系列课程,您可以当做Java的入门课程。

整个Java的内容大纲如下,后面会根据情况适当调整。
在这里插入图片描述

接下来,我将按照大纲顺序,依次整理JavaSE所有知识点,内容由浅入深,配合案例,帮助小白快速上手。目标就是帮助小白或者准备面试的小伙伴以最快的速度熟悉Java语法,少走弯路!一起加油吧!

在这里插入图片描述

最后,如果您觉得对您有帮助的话,不要忘记帮助帮博主一键三连😊哦

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark Streaming 和 Flink 都是流处理框架,但在一些方面有所不同。 1. 数据处理模型 Spark Streaming 基于批处理模型,将流数据分成一批批进行处理。而 Flink 则是基于流处理模型,可以实时处理数据流。 2. 窗口处理 Spark Streaming 的窗口处理是基于时间的,即将一段时间内的数据作为一个窗口进行处理。而 Flink 的窗口处理可以基于时间和数据量,可以更加灵活地进行窗口处理。 3. 状态管理 Spark Streaming 的状态管理是基于 RDD 的,需要将状态存储在内存中。而 Flink 的状态管理是基于内存和磁盘的,可以更加灵活地管理状态。 4. 容错性 Flink 的容错性比 Spark Streaming 更加强大,可以在节点故障时快速恢复,而 Spark Streaming 则需要重新计算整个批次的数据。 总的来说,Flink 在流处理方面更加强大和灵活,而 Spark Streaming 则更适合批处理和数据仓库等场景。 ### 回答2: Spark Streaming 和 Flink 都是流处理框架,它们都支持低延迟的流处理和高吞吐量的批处理。但是,它们在处理数据流的方式和性能上有许多不同之处。下面是它们的详细比较: 1. 处理模型 Spark Streaming 采用离散化流处理模型(DPM),将长周期的数据流划分为离散化的小批量,每个批次的数据被存储在 RDD 中进行处理,因此 Spark Streaming 具有较好的容错性和可靠性。而 Flink 采用连续流处理模型(CPM),能够在其流处理过程中进行事件时间处理和状态管理,因此 Flink 更适合处理需要精确时间戳和状态管理的应用场景。 2. 数据延迟 Spark Streaming 在处理数据流时会有一定的延迟,主要是由于对数据进行缓存和离散化处理的原因。而 Flink 的数据延迟比 Spark Streaming 更低,因为 Flink 的数据处理和计算过程是实时进行的,不需要缓存和离散化处理。 3. 机器资源和负载均衡 Spark Streaming 采用了 Spark 的机器资源调度和负载均衡机制,它们之间具有相同的容错和资源管理特性。而 Flink 使用 Yarn 和 Mesos 等分布式计算框架进行机器资源调度和负载均衡,因此 Flink 在大规模集群上的性能表现更好。 4. 数据窗口处理 Spark Streaming 提供了滑动、翻转和窗口操作等灵活的数据窗口处理功能,可以使用户更好地控制数据处理的逻辑。而 Flink 也提供了滚动窗口和滑动窗口处理功能,但相对于 Spark Streaming 更加灵活,可以在事件时间和处理时间上进行窗口处理,并且支持增量聚合和全量聚合两种方式。 5. 集成生态系统 Spark Streaming 作为 Apache Spark 的一部分,可以充分利用 Spark 的分布式计算和批处理生态系统,并且支持许多不同类型的数据源,包括Kafka、Flume和HDFS等。而 Flink 提供了完整的流处理生态系统,包括流SQL查询、流机器学习和流图形处理等功能,能够灵活地适应不同的业务场景。 总之,Spark Streaming 和 Flink 都是出色的流处理框架,在不同的场景下都能够发挥出很好的性能。选择哪种框架取决于实际需求和业务场景。 ### 回答3: Spark Streaming和Flink都是流处理引擎,但它们的设计和实现方式有所不同。在下面的对比中,我们将比较这两种流处理引擎的主要特点和差异。 1. 处理模型 Spark Streaming采用离散流处理模型,即将数据按时间间隔分割成一批一批数据进行处理。这种方式可以使得Spark Streaming具有高吞吐量和低延迟,但也会导致数据处理的粒度比较粗,难以应对大量实时事件的高吞吐量。 相比之下,Flink采用连续流处理模型,即数据的处理是连续的、实时的。与Spark Streaming不同,Flink的流处理引擎能够应对各种不同的实时场景。Flink的实时流处理能力更强,因此在某些特定的场景下,它的性能可能比Spark Streaming更好。 2. 窗口计算 Spark Streaming内置了许多的窗口计算支持,如滑动窗口、滚动窗口,但支持的窗口计算的灵活性较低,只适合于一些简单的窗口计算。而Flink的窗口计算支持非常灵活,可以支持任意窗口大小或滑动跨度。 3. 数据库支持 在处理大数据时,存储和读取数据是非常重要的。Spark Streaming通常使用HDFS作为其数据存储底层的系统。而Flink支持许多不同的数据存储形式,包括HDFS,以及许多其他开源和商业的数据存储,如Kafka、Cassandra和Elasticsearch等。 4. 处理性能 Spark Streaming的性能比Flink慢一些,尤其是在特定的情况下,例如在处理高吞吐量的数据时,在某些情况下可能受制于分批处理的架构。Flink通过其流处理模型和不同的调度器和优化器来支持更高效的实时数据处理。 5. 生态系统 Spark有着庞大的生态系统,具有成熟的ML库、图处理库、SQL框架等等。而Flink的生态系统相对较小,但它正在不断地发展壮大。 6. 规模性 Spark Streaming适用于规模小且不太复杂的项目。而Flink可扩展性更好,适用于更大、更复杂的项目。Flink也可以处理无限制的数据流。 综上所述,Spark Streaming和Flink都是流处理引擎,它们有各自的优缺点。在选择使用哪一个流处理引擎时,需要根据实际业务场景和需求进行选择。如果你的业务场景较为复杂,需要处理海量数据并且需要比较灵活的窗口计算支持,那么Flink可能是更好的选择;如果你只需要简单的流处理和一些通用的窗口计算,Spark Streaming是更为简单的选择。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值