Go 学习笔记(一) : 3种方式得变量 / 常量与iota / 数据类型(int,bool,string,error,array,slice,map)

为了基础的基础

package , import

package main

import "fmt"

func main(){
    fmt.Println("Hello World !")
}

包 , 与python类似, 与java不同. 用于模块化. 通过声明包, 和导入包可以实现程序的相互调用. 如 导入 fmt , 使用fmt的函数Println()
main.main()是 程序的运行入口, 无参数, 无返回值

变量声明

package main
import "fmt"

func main(){
    var complete string = "I 'm complete !"
    var autoType = "I'm auto "
    var simple := "I'm simple "
    complete, autoType, simple = "complete again", "auto again", "simple again"
    fmt.Println(complete,autoType,simple)
}

如上所示, 获得一个变量有3种方式

完整的声明和赋值 (也可只声明, 后赋值)
声明时不写类型 , 必须同时赋值自动推导类型
省略var , 使用 := 声明+赋值, 仅用于声明

常量

const SEX_MALE int = 0
const SEX_FEMALE = 1
const (
    MALE = iota  //0
    FEMAILE  //1
    WHAT //2
)

使用const关键字可声明常量, 使用()可一次声明多个 使用iota可便捷声, 规则为:
遇到const重置为0
同一行值相同
上一行为iota, 则本行不赋值时为 上一行iota值 + 1, 以此类推

数据类型小计

整形

int : int8 , int16, int32, int 64
uint : uint8, uint16, uint32, uint64
rune, int, byte

其中 int 与 uint 的区别是 有无符号 , rune 是 int32的别称, byte是uint8的别称, int虽然是32位但与int32不可互用

Boolean

默认为false, 与java类似, 数0,空等不代表 false

var ok bool 
fmt.Println(ok) //false
var gameover = true
isover := false

字符串

与java类似, 双引号包围

var str = "I'm a string!"

当多行时 使用 反引号

var multistr = `This is 
a 
multiline
`

使用 ` 时, 不转义\n,\t等

使用string类型时, 注意string不可变, 类似java . 但可强转为byte[] 类型后操作

var str="hello"
str[0] = 'c' //wrong!!!
var c = (byte[])str
c[0]='c'

error

Go内置有一个error类型,专门用来处理错误信息,Go的package里面还专门有一个包errors来处理错误:

err := errors.New("I am error message!")
if err != nil {
    fmt.Print(err)
}

array

在go中, array是值类型, 而slice(切片),map 才是引用类型

arr := [3]int{1,2,3}
array:=[...]int{3,2,1,0}
arr2 := [10]int{1,2,3} //后7个元素则为零值 
var arr3 [10]int
arr3[0]=9
arr3[1]=10

关于数组的赋值,取值与c和java类似
对于数组的初始化,分完整,部分(不写长度, 不写所有元素)
注意array是值类型, 互相传递赋值时, 不会相互影响

slice

 array := [10]int{1,2,3,4,5,6,7,8,9,10}
 aslice := array[:]
 bslice := aslice[2:]
 bslice[3] = 99
 array[0] = -99
 fmt.Println(aslice,bslice)

切片 , 可通过数组[n:m] 获取
切片是引用类型, 改变bslice , 同时aslice也会改变
改变arr不会改变aslice , 因为array是值类型

map

package main

import "fmt"

func main(){ 
    var numbers map[string]int =map[string]int{"all":9999}
    others := make(map[string]int)
    others["name"]=007
    numbers["one"] = 1
    numbers["ten"] = 10
    numbers["three"] = 3
    delete(numbers,"one")
    val , ok := numbers["not ex"]
    fmt.Println(numbers,numbers["one"],others,len(numbers),val,ok)
}

map类似与python种的字典, 操作与slice类似
元素赋值, 取值使用[]
map初始化使用 make 或者 map[string]int{}
使用delete删除key
使用多返回值检测是否存在key
使用len查看元素个数

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值