Channel Coding Theorem 证明

防盗 https://www.cnblogs.com/setdong/p/17948414
对应于教材 Elements of Information Theory 的 8.7 章节.
在证明定理之前, 先复习一些背景知识, 包括 entropy, WLLN, AEP, joint AEP 和 DMC. 第二节为定理的声明和证明.

1. background

1.1 Entropies 熵

来自于书中的第二章
Entropy:
H ( X ) = − ∑ x ∈ S X p ( x ) log ⁡ p ( x ) = − E [ log ⁡ p ( x ) ] H(X)=-\sum_{x\in S_X} p(x)\log p(x)=-\mathbb{E}[\log p(x)] H(X)=xSXp(x)logp(x)=E[logp(x)]
衡量了一个随机变量的不确定程度/随机性 (uncertainty/ randomness)
Joint entropy 联合熵:
H ( X , Y ) = − ∑ x ∈ S X ∑ y ∈ S Y p ( x , y ) log ⁡ p ( x , y ) H(X,Y)=-\sum_{x\in S_X}\sum_{y\in S_Y} p(x,y)\log p(x,y) H(X,Y)=xSXySYp(x,y)logp(x,y)
同样地, H ( X , Y ) H(X,Y) H(X,Y) 衡量的是 X X X Y Y Y 联合的随机性.
Conditional entropy 条件熵:
H ( Y ∣ X ) = ∑ x ∈ S X p ( x ) H ( Y ∣ X = x ) H(Y|X)=\sum_{x\in S_X} p(x) H(Y|X=x) H(YX)=xSXp(x)H(YX=x)
H ( Y ∣ X ) H(Y|X) H(YX) 衡量的是给定 X X X 后, Y Y Y 的随机性.
Mutual information 互信息:
I ( X ; Y ) = H ( X ) − H ( X ∣ Y ) I(X;Y)=H(X)-H(X|Y) I(X;Y)=H(X)H(XY)
X X X 由于已知 Y Y Y 而减少的“信息量”

1.2 Weak Law of Large Number(WLLN)

X 1 , . . . , X n X_1,...,X_n X1,...,Xn are i.i.d ∼ p ( x ) \sim p(x) p(x), then

1 n ∑ i = 1 n X i → in Prob. n → ∞ E [ X ] \frac{1}{n}\sum_{i=1}^n X_i \xrightarrow[\text{in Prob.}]{n\rightarrow \infty} \mathbb{E}[X] n1i=1nXin in Prob.E[X]
即样本均值依概率收敛于期望值.

1.3 AEP: Asymptotic Equipartition Property

来自于书中的第3章
Thm. (AEP) If X 1 , . . . , X n X_1,...,X_n X1,...,Xn are i.i.d ∼ p ( x ) \sim p(x) p(x), then
− 1 n log ⁡ p ( X 1 , . . . , X n ) → in Prob. n → ∞ H ( X ) p ( X 1 , . . . , X n ) → in Prob. n → ∞ 2 − n H ( X ) -\frac{1}{n} \log p(X_1,...,X_n)\xrightarrow[\text{in Prob.}]{n\rightarrow \infty} H(X) \\ p(X_1,...,X_n) \xrightarrow[\text{in Prob.}]{n\rightarrow \infty} 2^{-nH(X)} n1logp(X1,...,Xn)n in Prob.H(X)p(X1,...,Xn)n in Prob.2nH(X)
Typical set (典型集) 定义:
The typical set A ϵ ( n ) A_{\epsilon}^{(n)} Aϵ(n) with respect to p ( x ) p(x) p(x) is the set of sequences ( x 1 , . . . , x n ) ∈ S X ( n ) (x_1,...,x_n)\in S_X^{(n)} (x1,...,xn)SX(n) with the property
2 − n ( H ( X ) + ϵ ) ≤ p ( x 1 , . . . , x n ) ≤ 2 − n ( H ( X ) − ϵ ) 2^{-n(H(X)+\epsilon)}\leq p(x_1,...,x_n)\leq 2^{-n(H(X)-\epsilon)} 2n(H(X)+ϵ)p(x1,...,xn)2n(H(X)ϵ)
Typical set 有以下性质:

  • If ( x 1 , . . . , x n ) ∈ A ϵ ( n ) (x_1,...,x_n)\in A_{\epsilon}^{(n)} (x1,...,xn)Aϵ(n), then H ( X ) − ϵ ≤ − 1 n p ( x 1 , . . . , x n ) ≤ H ( X ) + ϵ H(X) - \epsilon\leq -\frac{1}{n} p(x_1,...,x_n)\leq H(X)+\epsilon H(X)ϵn1p(x1,...,xn)H(X)+ϵ.
  • Pr ⁡ { A ϵ ( n ) } > 1 − ϵ \Pr\{A_{\epsilon}^{(n)}\}>1-\epsilon Pr{Aϵ(n)}>1ϵ for n n n sufficiently large.
  • ∣ A ϵ ( n ) ∣ ≤ 2 n ( H ( X ) + ϵ ) |A_{\epsilon}^{(n)}|\leq 2^{n(H(X)+\epsilon)} Aϵ(n)2n(H(X)+ϵ).
  • ∣ A ϵ ( n ) ∣ ≥ ( 1 − ϵ ) 2 n ( H ( X ) − ϵ ) |A_{\epsilon}^{(n)}|\geq (1-\epsilon)2^{n(H(X)-\epsilon)} Aϵ(n)(1ϵ)2n(H(X)ϵ) for n n n sufficiently large.

1.4 Joint AEP

来自于书中的8.6章节
Joint typical set 定义:
The set A ϵ ( n ) A_{\epsilon}^{(n)} Aϵ(n) of jointly typical sequences { ( x n , y n ) } \{(x^n,y^n)\} {(xn,yn)} with respect to p ( x , y ) p(x,y) p(x,y) is the set of n n n-sequences with empirical entropies ϵ \epsilon ϵ-close to the true entropies:
A ϵ ( n ) = { ( x n , y n ) ∈ S X n × S Y n : ∣ − 1 n log ⁡ p ( x n ) − H ( X ) ∣ < ϵ , ∣ − 1 n log ⁡ p ( y n ) − H ( Y ) ∣ < ϵ , ∣ − 1 n log ⁡ p ( x n , y n ) − H ( X , Y ) ∣ < ϵ } A_{\epsilon}^ {(n)}=\{(x^n,y^n)\in S_X^n \times S_Y^n:\\ |-\frac{1}{n}\log p(x^n)-H(X)|<\epsilon,\\ |-\frac{1}{n}\log p(y^n)-H(Y)|<\epsilon,\\ |-\frac{1}{n}\log p(x^n,y^n)-H(X,Y)|<\epsilon\} Aϵ(n)={(xn,yn)SXn×SYn:n1logp(xn)H(X)<ϵ,n1logp(yn)H(Y)<ϵ,n1logp(xn,yn)H(X,Y)<ϵ}

where p ( x n , y n ) = ∏ i = 1 n p ( x i , y i ) p(x^n,y^n)=\prod_{i=1}^{n} p(x_i,y_i) p(xn,yn)=i=1np(xi,yi).
Thm.(Joint AEP) Let ( X n , Y n ) (X^n, Y^n) (Xn,Yn) be sequences of length n n n drawn i.i.d. ∼ p ( x n , y n ) = ∏ i = 1 n p ( x i , y i ) \sim p(x^n,y^n)=\prod_{i=1}^n p(x_i,y_i) p(xn,yn)=i=1np(xi,yi). Then,

  • As n → ∞ n\rightarrow \infty n, Pr ⁡ { ( X n , Y n ) ∈ A ϵ ( n ) } → 1 \Pr \{(X^n, Y^n)\in A_\epsilon^{(n)}\}\rightarrow 1 Pr{(Xn,Yn)Aϵ(n)}1
  • ∣ A ϵ ( n ) ∣ ≤ 2 n ( H ( X , Y ) + ϵ ) |A_\epsilon^{(n)}|\leq 2^{n(H(X,Y)+\epsilon)} Aϵ(n)2n(H(X,Y)+ϵ)
    ∣ A ϵ ( n ) ∣ ≥ ( 1 − ϵ ) 2 n ( H ( X , Y ) − ϵ ) |A_\epsilon^{(n)}|\geq (1-\epsilon)2^{n(H(X,Y)-\epsilon)} Aϵ(n)(1ϵ)2n(H(X,Y)ϵ) for sufficiently large n n n
  • If ( X ~ n , Y ~ n ) ∼ p ( x n ) p ( y n ) (\tilde{X}^n, \tilde{Y}^n)\sim p(x^n)p(y^n) (X~n,Y~n)p(xn)p(yn), then
    Pr ⁡ { ( X ~ n , Y ~ n ) ∈ A ϵ ( n ) } ≤ 2 − n ( I ( X ; Y ) − 3 ϵ ) \Pr \{(\tilde{X}^n, \tilde{Y}^n)\in A_\epsilon^{(n)}\}\leq 2^{-n(I(X;Y)-3\epsilon)} Pr{(X~n,Y~n)Aϵ(n)}2n(I(X;Y)3ϵ)
    Pr ⁡ { ( X ~ n , Y ~ n ) ∈ A ϵ ( n ) } ≤ ( 1 − ϵ ) 2 − n ( I ( X ; Y ) + 3 ϵ ) \Pr \{(\tilde{X}^n, \tilde{Y}^n)\in A_\epsilon^{(n)}\}\leq (1-\epsilon)2^{-n(I(X;Y)+3\epsilon)} Pr{(X~n,Y~n)Aϵ(n)}(1ϵ)2n(I(X;Y)+3ϵ) for sufficiently large $

1.5 Discrete Memoryless Channel (DMC) without feedback

来自于书中的8.5章节

一个消息 W W W 首先被编码成长度为 n n n 的序列 X n X^n Xn, X n X^n Xn 是信道的输入, 信道是一概率转移矩阵 (probability transition matrix) p ( y ∣ x ) p(y|x) p(yx), 这里的随机性是由于噪声, 信道的输出是 Y n Y^n Yn, Y n Y^n Yn 随即被解码成 W ^ \hat{W} W^.

  • Memoryless 表示 p ( y k ∣ x k , y k − 1 ) = p ( y k ∣ x k ) p(y_k|x^k, y^{k-1})=p(y_{k}|x_k) p(ykxk,yk1)=p(ykxk), 即输出的概率分布只依赖于此时刻 ( k k k) 的输入, 与之前的输入输出条件独立.
  • W/O Feedback 表示 p ( x k ∣ x k − 1 , y k − 1 ) = p ( x k ∣ x k − 1 ) p(x_k|x^{k-1},y^{k-1})=p(x_k|x^{k-1}) p(xkxk1,yk1)=p(xkxk1), 即输入与之前的输出独立.
  • 因此 channel transition function 可以化简为
    p ( y n ∣ x n ) = ∏ i = 1 n p ( y i ∣ x i ) p(y^n|x^n) = \prod_{i=1}^{n} p(y_i|x_i) p(ynxn)=i=1np(yixi)
    接下来是一些重要的定义:
  1. An ( M , n ) (M,n) (M,n) code for channel ( S X , p ( y ∣ x ) , S Y ) (S_X,p(y|x), S_Y) (SX,p(yx),SY) consists of:
    An index set { 1 , 2 , . . . , M } \{1,2,...,M\} {1,2,...,M},
    An encoding function X n : { 1 , 2 , . . . , M } → S X n X^n:\{1,2,...,M\}\rightarrow S_X^n Xn:{1,2,...,M}SXn, yielding codewords x n ( 1 ) , x n ( 2 ) , . . . , x n ( M ) x^n(1), x^n(2),..., x^n(M) xn(1),xn(2),...,xn(M). The set of codewords is called the codebook,
    A decoding function g : S Y n → { 1 , 2 , . . . , M } g: S_{Y}^n \rightarrow \{1,2,...,M\} g:SYn{1,2,...,M}, which is a deterministic function.
  2. The information channel capacity:
    C = max ⁡ p ( x ) I ( X ; Y ) C=\max_{p(x)}I(X;Y) C=p(x)maxI(X;Y)
  3. Conditional probability of error:
    λ i = Pr ⁡ { g ( Y n ) ≠ i ∣ X n = x n ( i ) } = ∑ y n : g ( y n ) ≠ i p ( y n ∣ x n ( i ) ) \lambda_i=\Pr\{g(Y^n)\neq i|X^n=x^n(i)\}=\sum_{y^n:g(y^n) \neq i} p(y^n|x^n(i)) λi=Pr{g(Yn)=iXn=xn(i)}=yn:g(yn)=ip(ynxn(i))
  4. The maximal probability of error λ ( n ) \lambda^{(n)} λ(n) for an ( M , n ) (M,n) (M,n) code:
    λ ( n ) = max ⁡ i ∈ 1 , . . . , M λ i \lambda^{(n)}=\max_{i\in{1,...,M}}\lambda_i λ(n)=i1,...,Mmaxλi
  5. The arithmetic average probability of error P e ( n ) Pe^{(n)} Pe(n) for an ( M , n ) (M,n) (M,n) code:
    P e ( n ) = 1 M ∑ i = 1 M λ i Pe^{(n)}=\frac{1}{M}\sum_{i=1}^M \lambda_i Pe(n)=M1i=1Mλi
  6. The rate R R R for an ( M , n ) (M,n) (M,n) code:
    R = log ⁡ M n R=\frac{\log M}{n} R=nlogM
    单位是 bits/ch. use

2. Channel Coding Theorem

来自于书中的8.7章节
For a discrete memoryless channel, all rates below capacity C C C are achievable. Specifically, for every rate R < C R < C R<C, there exists a sequence of ( 2 n R , n ) (2^{nR}, n) (2nR,n) codes with maximum probability of error λ ( n ) → 0 \lambda^{(n)} \rightarrow 0 λ(n)0 as n → ∞ n\rightarrow \infty n.
Conversely, any sequence of ( 2 n R , n ) (2^{nR}, n) (2nR,n) codes with λ ( n ) → 0 \lambda^{(n)} \rightarrow 0 λ(n)0 must have R ≤ C R \leq C RC.
针对 DMC, 定理说明了两件事: 1. Achievability: 如果 R R R 小于信道容量 C C C, 那么存在一种编码技术使 λ ( n ) \lambda^{(n)} λ(n)任意小, 也就是说接收端收到的错误达到任意小的数值; 2. Converse: 任何无错编码技术一定满足 R ≤ C R \leq C RC.

2.1 证明 Achievability:

固定 p ( x ) p(x) p(x), 首先分析根据 p ( x ) p(x) p(x) 随机生成一个 ( M , n ) (M,n) (M,n) code 的概率, 这等价于根据 p ( x n ) = ∏ i = 1 n p ( x i ) p(x^n)=\prod_{i=1}^n p(x_i) p(xn)=i=1np(xi) 独立生成 2 n R 2^{nR} 2nR 个 codewords, 这 2 n R 2^{nR} 2nR 个 codewords即为 codebook B B B. (编码簿)
如果把这个 codebook 写作一个 2 n R × n 2^{nR} \times n 2nR×n 的矩阵:
B = [ x 1 ( 1 ) x 2 ( 1 ) . . . x n ( 1 ) . . . . . . . . . . . . x 1 ( 2 n R ) x 2 ( 2 n R ) . . . x n ( 2 n R ) ] B = \begin{bmatrix} x_1(1) & x_2(1) & ... & x_n(1)\\ ...& ... & ...& ...\\ x_1(2^{nR}) & x_2(2^{nR}) & ... & x_n(2^{nR}) \end{bmatrix} B= x1(1)...x1(2nR)x2(1)...x2(2nR).........xn(1)...xn(2nR)
每行即为 codewords, 如第一行为 x n ( 1 ) x^n(1) xn(1), 是消息 1 1 1 的 codeword, 且 p ( x n ( 1 ) ) = ∏ i = 1 n p ( x i ( 1 ) ) p(x^n(1))=\prod_{i=1}^n p(x_i(1)) p(xn(1))=i=1np(xi(1)).
所以, 生成 B B B 的概率为
Pr ⁡ ( B ) = ∏ w = 1 2 n R ∏ i = 1 n p ( x i ( w ) ) \Pr(B)=\prod_{w=1}^{2^{nR}} \prod_{i=1}^n p(x_i(w)) Pr(B)=w=12nRi=1np(xi(w))
考虑以下事件:

  1. 根据上述概率公式生成一个随机的 codebook B B B.
  2. 向发送端 Tx 和接收端 Rx 揭示 B, 假设 Tx 和 Rx 已知信道 p ( y ∣ x ) p(y|x) p(yx).
  3. (均匀)随机选择一个消息 w w w:
    p ( W = w ) = 2 − n R , w ∈ { 1 , . . . , 2 n R } p(W=w)=2^{-nR}, w\in\{1,...,2^{nR}\} p(W=w)=2nR,w{1,...,2nR}
  4. 通过信道传送 w w w.
  5. 接收端 Rx 根据 p ( y n ∣ x n ( w ) ) = ∏ i = 1 n p ( y i ∣ x i ( w ) ) p(y^n|x^n(w))=\prod_{i=1}^n p(y_i|x_i(w)) p(ynxn(w))=i=1np(yixi(w)) 接收到长度为 n 的序列 Y n Y^n Yn
  6. 如果下列两个条件成立, 则接收端 Rx 输出 w ^ \hat{w} w^:
    a) ( x n ( w ^ ) , y n ) ∈ A ϵ ( n ) (x^n(\hat{w}), y^n)\in A_\epsilon^{(n)} (xn(w^),yn)Aϵ(n) .
    b) 没有其他的 index k k k 满足 ( x n ( k ) , y n ) ∈ A ϵ ( n ) (x^n(k), y^n)\in A_\epsilon^{(n)} (xn(k),yn)Aϵ(n) .
    如果不存在这样的 w ^ \hat{w} w^ 或者不只有一个这样的 w ^ \hat{w} w^, 那么报错.
  7. 如果 w ^ ≠ w \hat{w} \neq w w^=w, 报错.

接下来分析报错的概率 Pr ⁡ ( e ) \Pr(e) Pr(e):

E i = { ( X n ( i ) , Y n ) ∈ A ϵ ( n ) } E_i=\{(X^n(i), Y^n) \in A_\epsilon^{(n)}\} Ei={(Xn(i),Yn)Aϵ(n)}, 其中 Y n Y^n Yn 为信道对 X n ( 1 ) X^n(1) Xn(1)的输出, 因为假设了传递的消息 w = 1 w=1 w=1.
根据6(a), 6(b) 和 7的描述可知, 当传递的codeword与接收到的序列不 jointly typical 时 (等价于 E 1 C E_1^C E1C), 或一个错误的 codeword与接收到的序列是 jointly typical 时(等价于 E 2 ∪ E 2 ∪ . . . ∪ E 2 n R E_2 \cup E_2 \cup ... \cup E_{2^{nR}} E2E2...E2nR), 错误产生. 所以:
Pr ⁡ ( e ) = Pr ⁡ ( e ∣ W = 1 ) = Pr ⁡ ( E 1 C ∪ E 2 ∪ E 3 ∪ . . . ∪ E 2 n R ∣ W = 1 ) \Pr(e) =\Pr(e|W=1)=\Pr(E_1^C\cup E_2 \cup E_3 \cup ... \cup E_{2^{nR}}|W=1) Pr(e)=Pr(eW=1)=Pr(E1CE2E3...E2nRW=1)
根据union bound, 上式满足
≤ Pr ⁡ ( E 1 C ∣ W = 1 ) + ∑ i = 2 2 n R Pr ⁡ ( E i ∣ W = 1 ) \leq \Pr(E_1^C|W=1)+\sum_{i=2}^{2^{nR}}\Pr(E_i|W=1) Pr(E1CW=1)+i=22nRPr(EiW=1)
根据 joint AEP 的第一条性质, 对于足够大的 n 有 Pr ⁡ ( E 1 C ∣ W = 1 ) ≤ ϵ \Pr(E_1^C|W=1)\leq \epsilon Pr(E1CW=1)ϵ.
根据 joint AEP 的最后一条性质, 对于足够大的 n 有 Pr ⁡ ( E i ∣ W = 1 ) ≤ 2 − n ( I ( X ; Y ) − 3 ϵ ) \Pr(E_i|W=1) \leq 2^{-n (I(X;Y)-3\epsilon)} Pr(EiW=1)2n(I(X;Y)3ϵ), 带入上式
≤ ϵ + ( 2 n R − 1 ) 2 − n ( I ( X ; Y ) − 3 ϵ ) ≤ ϵ + 2 − n ( I ( X ; Y ) − 3 ϵ − R ) \leq \epsilon +(2^{nR}-1) 2^{-n (I(X;Y)-3\epsilon)}\\ \leq \epsilon +2^{-n (I(X;Y)-3\epsilon -R)} ϵ+(2nR1)2n(I(X;Y)3ϵ)ϵ+2n(I(X;Y)3ϵR)
当 n 足够大且 R < I ( X ; Y ) − 3 ϵ R< I(X;Y)-3\epsilon R<I(X;Y)3ϵ 时, 上式满足
≤ 2 ϵ \leq 2\epsilon 2ϵ
目前已经证明了当 R < I ( X ; Y ) − 3 ϵ R< I(X;Y)-3\epsilon R<I(X;Y)3ϵ 时, 我们可以选择合适的 n n n ϵ \epsilon ϵ 令平均错误率 P e ( x ) Pe^{(x)} Pe(x) 小于等于 2 ϵ 2\epsilon 2ϵ. 这里的平均是在所有的 codewords 和所有的 codebook 上的平均, 正如图片中的 sum over B 和 sum over w.
但是此时只得到了平均错误率的上界, 无法得出定理中的结论, 接下来推最大错误率 λ ( n ) \lambda^{(n)} λ(n) 的上界.
再次考虑以下事件:

  1. 选择 p ( x ) = p ∗ ( x ) p(x)=p^*(x) p(x)=p(x), p ∗ ( x ) p^*(x) p(x) 为令 I ( X ; Y ) I(X;Y) I(X;Y) 最大的输入分布, 也就是 p ∗ ( x ) p^*(x) p(x) 是实现通道容量的那个分布.
    所以上面的条件 R < I ( X ; Y ) ⇒ R < C R< I(X;Y) \Rightarrow R<C R<I(X;Y)R<C .
  2. 选择一个平均错误率最小的 codebook B ∗ B* B, 所以
    Pr ⁡ ( e ∣ B ∗ ) = 1 2 n R ∑ i = 1 2 n R λ i ( B ∗ ) ≤ 2 ϵ \Pr(e|B*)=\frac{1}{2^{nR}} \sum_{i=1}^{2^{nR}} \lambda_i (B* )\leq 2\epsilon Pr(eB)=2nR1i=12nRλi(B)2ϵ
  3. 移除 B ∗ B^{*} B 中最差的那半 codewords, 将剩余部分记为 B ∗ ∗ B^{**} B∗∗, 由于平均错误率小于等于 2 ϵ 2\epsilon 2ϵ 且 概率是非负的, 所以 B ∗ ∗ B^{**} B∗∗的最大错误率一定小于等于 4 ϵ 4\epsilon 4ϵ, 否则上一条中的不等式将不成立.

Achievability 证明完毕.

其中, 移除一半codewords 令 index set 减少一半, 即
2 n R → 2 n R × 1 2 = 2 n ( R − 1 n ) 2^{nR} \rightarrow 2^{nR}\times \frac{1}{2}=2^{n(R-\frac{1}{n})} 2nR2nR×21=2n(Rn1)
速率 R 只减少了 1 n \frac{1}{n} n1, 且当 n 很大时, 对 R 几乎无影响.

2.2 证明 Converse:

来自于书中的8.8 - 8.10章节
未完待续

  • 18
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
完整版:https://download.csdn.net/download/qq_27595745/89522468 【课程大纲】 1-1 什么是java 1-2 认识java语言 1-3 java平台的体系结构 1-4 java SE环境安装和配置 2-1 java程序简介 2-2 计算机中的程序 2-3 java程序 2-4 java类库组织结构和文档 2-5 java虚拟机简介 2-6 java的垃圾回收器 2-7 java上机练习 3-1 java语言基础入门 3-2 数据的分类 3-3 标识符、关键字和常量 3-4 运算符 3-5 表达式 3-6 顺序结构和选择结构 3-7 循环语句 3-8 跳转语句 3-9 MyEclipse工具介绍 3-10 java基础知识章节练习 4-1 一维数组 4-2 数组应用 4-3 多维数组 4-4 排序算法 4-5 增强for循环 4-6 数组和排序算法章节练习 5-0 抽象和封装 5-1 面向过程的设计思想 5-2 面向对象的设计思想 5-3 抽象 5-4 封装 5-5 属性 5-6 方法的定义 5-7 this关键字 5-8 javaBean 5-9 包 package 5-10 抽象和封装章节练习 6-0 继承和多态 6-1 继承 6-2 object类 6-3 多态 6-4 访问修饰符 6-5 static修饰符 6-6 final修饰符 6-7 abstract修饰符 6-8 接口 6-9 继承和多态 章节练习 7-1 面向对象的分析与设计简介 7-2 对象模型建立 7-3 类之间的关系 7-4 软件的可维护与复用设计原则 7-5 面向对象的设计与分析 章节练习 8-1 内部类与包装器 8-2 对象包装器 8-3 装箱和拆箱 8-4 练习题 9-1 常用类介绍 9-2 StringBuffer和String Builder类 9-3 Rintime类的使用 9-4 日期类简介 9-5 java程序国际化的实现 9-6 Random类和Math类 9-7 枚举 9-8 练习题 10-1 java异常处理 10-2 认识异常 10-3 使用try和catch捕获异常 10-4 使用throw和throws引发异常 10-5 finally关键字 10-6 getMessage和printStackTrace方法 10-7 异常分类 10-8 自定义异常类 10-9 练习题 11-1 Java集合框架和泛型机制 11-2 Collection接口 11-3 Set接口实现类 11-4 List接口实现类 11-5 Map接口 11-6 Collections类 11-7 泛型概述 11-8 练习题 12-1 多线程 12-2 线程的生命周期 12-3 线程的调度和优先级 12-4 线程的同步 12-5 集合类的同步问题 12-6 用Timer类调度任务 12-7 练习题 13-1 Java IO 13-2 Java IO原理 13-3 流类的结构 13-4 文件流 13-5 缓冲流 13-6 转换流 13-7 数据流 13-8 打印流 13-9 对象流 13-10 随机存取文件流 13-11 zip文件流 13-12 练习题 14-1 图形用户界面设计 14-2 事件处理机制 14-3 AWT常用组件 14-4 swing简介 14-5 可视化开发swing组件 14-6 声音的播放和处理 14-7 2D图形的绘制 14-8 练习题 15-1 反射 15-2 使用Java反射机制 15-3 反射与动态代理 15-4 练习题 16-1 Java标注 16-2 JDK内置的基本标注类型 16-3 自定义标注类型 16-4 对标注进行标注 16-5 利用反射获取标注信息 16-6 练习题 17-1 顶目实战1-单机版五子棋游戏 17-2 总体设计 17-3 代码实现 17-4 程序的运行与发布 17-5 手动生成可执行JAR文件 17-6 练习题 18-1 Java数据库编程 18-2 JDBC类和接口 18-3 JDBC操作SQL 18-4 JDBC基本示例 18-5 JDBC应用示例 18-6 练习题 19-1 。。。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Manigoldo_

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值