2.初识Go语言

目录

历程

优势

缺陷

应用

学习Golang的一些方法


历程

Go 语言是由谷歌的开发工程师(罗伯特·格瑞史莫、罗勃·派克、肯·汤普逊等)于 2007 年 开始设计,利用 20%的自由时间开发的实验项目,并于 2009 年以 BSD-style 授权(完全开 源)首次公开发布,于 2012 年正式发布

历史上的Go版本: https://golang.google.cn/doc/devel/release.html

  • go1.16 (released 2021/02/16)

    • runtime/metrics

    • GO111MODULE的默认值为on, 可以把GO111MODULE设置回auto

    • io/ioutil为废弃,函数被转移到了os和io这两个包里

    • 1.16优化了链接器,现在它在linux/amd64上比1.15快了20-25%,内存占用减少了5-15%

  • go1.15 (released 2020/08/11)

    • Go 1.15版本不再对darwin/386和darwin/arm两个32位平台提供支持

    • 新版linker的起点,新链接器的性能要提高20%,内存占用减少30% 后续持续优化

    • GOPROXY支持设置为多个proxy的列表,多个proxy之间采用逗号分隔,默认值依旧为https://proxy.golang.org,direct

  • go1.14 (released 2020/02/25)

    • Go Module 已经可以用于生产环境

    • defer zero overhead

  • go1.13 (released 2019/09/03)

    • 重写了逃逸分析,减少了 Go 程序中堆上的内存申请的空间,1.3版本被诟病后改了

    • defer 性能提升30%

    • GO111MODULE auto

  • go1.12 (released 2019/02/25)

    • 内存分配优化

    • GO111MODULE off

  • go1.11 (released 2018/08/24)

    • Go modules, 社区积怨已久

    • 实验性的 WebAssembly

  • go1.10 (released 2018/02/16)

    • gc快优化到头了

    • 为了加快构建速度,go build 引入了构建缓存

  • go1.9 (released 2017/08/24)

    • type alias

    • Concurrent Map sync.Map结构

  • go1.8 (released 2017/02/16)

    • gc 的停顿时间减少到了 1 毫秒以下(100 microseconds and often as low as 10 microseconds)

    • defer 开销降低到原来的一半

  • go1.7 (released 2016/08/15)

    • 对编译工具链也作了优化,编译速度更快

    • gc进一步提升

    • Context包推出 对goroutine的生命周期管理提出的标准方案

  • go1.6 (released 2016/02/17)

    • gc进一步提升

  • go1.5 (released 2015/08/19) 发布时间推迟了两个月2个大招

  • go1.4 (released 2014/12/10)

    • 继续优化GC, go generate诞生

  • go1.3 (released 2014/06/18)

    • 尝试优化GC,同时推出了 sync.Pool

  • go1.2 (released 2013/12/01) 语言层面的优化

    • 基础库的性能提升

    • SetMaxThreads defaults (10000)

  • go1.1 (released 2013/05/13)

  • go1 (released 2012/03/28)

优势

  • 简单的部署方式

    • 可直接编译成机械码

    • 不依赖其他库

    • 直接运行即可部署

  • 静态类型语言

    • 编译的时候可以检测出隐藏的大多数问题

    • 强类型方便阅读与重构

  • 语言层面的并发

    • 天生的基于支持

    • 充分利用多核

  • 工程化比较优秀

    • GoDoc 可以直接从代码和注释生成漂亮的文档

    • GoFmt 统一的代码格式

    • GoLint 代码语法提示

    • 测试框架内置

  • 强大的标准库

    • Runtime系统调度机制

    • 高效的GC垃圾回收

    • 丰富的标准库

  • 简单易学

    • 25个关键字

    • C语言简洁基因,内嵌C语言语法支持

    • 面向对象特征(继承, 多态,封装)

    • 跨平台

缺陷

  • 包管理, 大部分都在 github上

    • 作者修改项目名称

    • 作者删库跑路

    • vendor 到 mod 迁移麻烦,很多遗留依赖问题

  • 无泛型, 2.0 有计划加上 (传言)

    • interface{}可以解决该问题, 但是不易于代码阅读

  • 没有Exception,使用Error来处理异常

    • error处理不太优雅, 很多重复代码

应用

Go 语言主要用于服务端开发,其定位是开发大型软件,常用于:

  • 服务器编程:日志处理、数据打包、虚拟机处理、文件系统、分布式系统、数据库代理等

  • 网络编程:Web 应用、API 应用、下载应用

  • 内存数据库

  • 云平台

  • 机器学习

  • 区块链

  • ……

使用 Go 开发的项目列表:https://github.com/golang/go/wiki/Projects

  • Go

  • docker

  • kubernetes

  • lantern

  • etcd

  • Prometheus

  • Influxdb

  • Consul

  • nsq

  • nats

  • beego

  • ……

使用 Go 开发的组织:http://go-lang.cat-v.org/organizations-using-go

  • 国外:Google、CloudFlare……

  • 国内:阿里、腾讯、百度、京东、爱奇艺、小米、今日头条、滴滴、美团、饿了么、360、七牛、B 站、盛大、搜狗……

学习Golang的一些方法

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark是一种大数据处理的框架,它可以处理大量的数据并进行分析。初学者可以通过学习Spark的基本概念和使用方法,了解Spark的工作原理和应用场景。在学习Spark的过程中,需要掌握Spark的核心组件和API,例如Spark Core、Spark SQL、Spark Streaming等。此外,还需要学习Spark的部署和调优,以及与其他大数据技术的集成。 ### 回答2: Spark是一种基于内存的分布式计算框架,是大数据处理中最流行的技术之一。Spark简单易用,能够快速地处理海量数据,尤其是在机器学习和数据挖掘领域中表现突出。本文将从初识Spark的角度入手,介绍Spark的基本概念和使用。 一、Spark的基本概念 1. RDD RDD全称为Resilient Distributed Datasets,中文意思是弹性分布式数据集,它是Spark的核心数据结构。RDD是一个不可变的分布式的对象集合,可以跨越多个节点进行并行处理。一个RDD可以分为多个分区,每个分区可以在不同的节点上存储。 2. DAG DAG即Directed Acyclic Graph(有向无环图),它是Spark中的一个概念,用来表示作业的依赖关系。Spark将一个作业拆分成一系列具有依赖关系的任务,每个任务之间的依赖形成了DAG。 3. 窄依赖和宽依赖 对于一个RDD,如果一个子RDD的每个分区只依赖于父RDD的一个分区,这种依赖就称为窄依赖。如果一个子RDD的每个分区依赖于父RDD的多个分区,这种依赖就称为宽依赖。宽依赖会影响Spark的性能,应尽量避免。 二、Spark的使用 1. 安装Spark 要使用Spark,首先需要在本地或者集群上安装Spark。下载安装包解压缩即可,然后设置环境变量,即可在命令行中运行Spark。 2. Spark Shell Spark Shell是Spark的交互式命令行界面,类似于Python的交互式控制台,可以快速测试Spark代码。在命令行中输入spark-shell即可进入。 3. Spark应用程序 除了Spark Shell,Spark还支持以应用程序的形式运行。要创建一个Spark应用程序,可以使用Scala、Java、Python等语言进行编写。使用Spark API,读取数据、处理数据、保存数据等操作都可以通过编写代码完成。 总之,Spark是一种优秀的分布式计算框架,能够在海量数据处理中发挥出强大的作用。初学者可以从掌握RDD、DAG、依赖关系等基本概念开始,逐步深入学习Spark的使用。 ### 回答3: Spark是一种快速、分布式数据处理框架,它能够在成千上万个计算节点之间分配数据和计算任务。Spark的优势在于它支持多种语言和数据源,可以在内存中快速存储和处理数据。 在初学Spark时,我们需要对Spark的架构和核心组件有一些了解。首先,Spark的核心组件是Spark Core,它是一个可以用于建立各种应用程序的计算引擎。与此同时,Spark持有丰富的库,包括Spark SQL、Spark Streaming、MLLib和GraphX等,以支持在各种数据类型(文本、图像、视频、地理定位数据等)上运行各种算法。 若想要在Spark中进行任务,有两种编程API可供选择:Spark的核心API和Spark的SQL及DataFrame API。Spark的核心API基于RDDs(弹性分布式数据集),它是不可变的分布式对象集合,Spark使用RDD来处理、缓存和共享数据。此外,Spark的SQL及DataFrame API提供了更高层次的语言,可以处理结构化和半结构化数据。 除了组件和API之外,我们还需要了解Spark的4个运行模式:本地模式、Standalone模式、YARN模式和Mesos模式。本地模式由单个JVM上单个线程(本地模式)或四个线程(local[*]模式)运行。Standalone通常用于小规模集群或开发和测试环境。在YARN或Mesos模式下,Spark将任务提交给集群管理器,并通过管理器分配和管理资源。 总体来说,初学Spark时,我们需要了解Spark的核心组件、编程API和运行模式。熟悉这些概念以及Spark的架构,可以帮助我们更好地理解Spark和构建高效且可扩展的Spark应用程序。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值