自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(27)
  • 资源 (4)
  • 收藏
  • 关注

原创 保研历程

终于尘埃落定了。最后录取了北大信科。决定把自己这几个月的保研历程记录下来。一、个人情况其实吧,我的个人情况很一般。末流985,专业软件工程,大一下学期选入工科试验班。成绩排名1/30,综合排名2/30。论文是在七月末水了一篇,不是第一作者。竞赛全无,只有奖学金,社会奖学金一直没有申请过,实习经历无。面试机试笔试一直都是裸考,从来没准备过,这里也吃了很大的亏。大多数offer都是九月份拿到的

2016-09-28 16:02:03 5377 3

原创 九度1040

#include #include #include #include #include #include #include using namespace std;bool isPrime(int n){ for(int i=2;i<=sqrt(n);i++) if(n%i==0) return false; retu

2016-09-24 21:29:03 329

原创 九度1099

#include #include #include #include #include #include using namespace std;int cmp(const void* a,const void *b){ return strcmp((char*)a,(char*)b);}int main(){ string str; char

2016-09-24 21:23:49 232

原创 九度1104

注意多组数据输入#include #include #include #include #include #include #include using namespace std;int main(){ int n,a; while(cin>>n>>a) { int cnt=0; long long int res

2016-09-24 15:40:06 193

原创 九度1092

fibonacci数列,水题#include #include #include #include #include #include #include using namespace std;int main(){ int n; int fib[35]; fib[0]=0; fib[1]=1; for(int i=2;i<=30;

2016-09-24 14:41:50 210

原创 北大机试最小生成树

哎。。。策略错误。。。最小生成树竟然没写完。。。。就差一点就ac五道了T_T#include #include #include #include #include #include #include using namespace std;struct path{ int name1; int name2; float pathl;};fl

2016-09-24 00:29:47 252

转载 商人的宣传 矩阵乘法

商人的宣传DescriptionBruce是K国的商人,他在A州成立了自己的公司,这次他的公司生产出了一批性能很好的产品,准备宣传活动开始后的第L天到达B州进行新产品拍卖,期间Bruce打算将产品拿到各个州去做推销宣传,以增加其影响力。K国有很多个州,每个州都与其他州相邻,但是K国对商人作宣传却有一些很奇怪的规定:1、商人只能从某些州到达另外一些州,即连通路线是单向的,而且

2016-09-19 07:59:42 593

原创 九度1081矩阵二分法

再次分析题目,会发现递推公式进而推出问题转化为求这里要用到 矩阵二分乘法。矩阵二分乘法是一种有效的快速计算矩阵幂的算法。矩阵二分乘法通常可以将线性递推问题O(n)时间缩短到O(log(n))。#include #include #include #include usi

2016-09-18 23:15:42 315

原创 九度1080

超时#include #include #include #include using namespace std;int main(){ int n,m; string str; string result; while(cin>>m>>n) { cin>>str; result.clear();

2016-09-18 22:14:08 247

转载 C++中string类的基本函数

要想使用标准C++中string类,必须要包含#include // 注意是,不是,带.h的是C语言中的头文件using std::string;using std::wstring;或using namespace std;下面你就可以使用string/wstring了,它们两分别对应着char和wchar_t。string和wstring的用法是一样的,以下只用string作

2016-09-18 21:28:03 319

转载 c++ string 的函数replace()用法

basic_string::max_size 返回string 能放的最大元素个数。(不同于capacity) size _ type max _ size( ) const; basic_string ::size_type cap, max; cap = s.capacity ( ); max = s.max_size ( ); // max=42949

2016-09-18 21:10:48 659

原创 九度1077 最大子序列和

dp[i]=max{dp[i-1]+value[i],value[i]}包含第i个元素的长为i的子序列最大和。

2016-09-18 18:24:37 203

原创 九度1082

C实现#include #include #include int main(){ char agency[1005][16]; char server[2005][16]; int n,m; int i,j; int flag; int res; int start; int maxl; while(~scan

2016-09-18 18:23:22 198

转载 最长公共子串、最长公共子序列、最长回文子串、模式匹配、最大子序列--字符串问题整理

一.最长公共子串问题集(Longest Common Substring/LCS)    最长公共子串问题的基本表述为:    给定两个字符串,求出它们之间最长的相同子字符串的长度。    最直接的解法自然是找出两个字符串的所有子字符串进行比较看他们是否相同,然后取得相同最长的那个。对于一个长度为n的字符串,它有n(n+1)/2 个非空子串。所 以假如两个字符串的长度同为n,通

2016-09-18 16:45:26 720

原创 九度1079

暴力。可以用数组记录每个键上第一个字母,减少代码量。#include #include #include #include #include #include #include #include using namespace std;int gettime(char c){ if(c-'a'<15) { switch((c-'a')%3

2016-09-17 23:44:52 203

原创 九度1207

最暴力方法,但是结果超时。#include #include #include #include #include #include #include #include using namespace std;int main(){ int n; int res; while(cin>>n) { res=0;

2016-09-17 23:29:28 222

原创 九度1087

#include #include #include #include #include #include #include #include using namespace std;int main(){ int n; int m; int res; while(cin>>n) { for(int i=0;i<n;i

2016-09-17 23:12:43 237

原创 九度1069

涉及string的substr、find函数,以及map及其iterator使用方式。#include #include #include #include #include #include using namespace std;int main(){ int n,m; int i; int index; string str,id,in

2016-09-17 22:58:40 308

转载 qsort sort

First  qsort基本快速排序的方法,每次把数组分成两分和中间的一个划分值,而对于有多个重复值的数组来说,基本排序的效率较低。集成在C语言库函数里面的的qsort函数,使用 三 路划分的方法解决这个问题。所谓三路划分,是指把数组划分成小于划分值,等于划分值和大于划分值的三个部分。函数对buf 指向的数据按升序排序。使用方法:void qsort( void *

2016-09-17 20:49:58 379

原创 九度1061

用冒泡#include #include #include int main(){ int n; char name[1000][105]; int age[1000],score[1000]; int i,flag; int rank[1000]; int temp; while(~scanf("%d",&n)) {

2016-09-17 20:27:46 207

原创 九度1088

水题,但是注意memset按字节赋值#include #include #include int tree[10005];int main(){ int l,m; int i,j; int le,ri; int count; while(~scanf("%d%d",&l,&m)) { memset(tree,1,4*

2016-09-17 19:56:22 317

原创 九度1076 N的阶乘

n数值较小,可以直接与每位上的数相乘。#include #include #include void reverse(char * s){ char temp; int i,j; for(i=0,j=strlen(s)-1;i<j;i++,j--) { temp=s[i]; s[i]=s[j]; s[j]

2016-09-17 18:29:21 630

原创 九度1067 n的阶乘

n#include #include #include int main(){ long long res; int n; int i; while(~scanf("%d",&n)) { res=1; for(i=1;i<=n;i++) res=res*i; printf(

2016-09-17 16:53:42 264

原创 九度1084 整数拆分

递归。当n为奇数,f(n)与f(n-1)相同;当n为偶数,f(n)分为包括1和不包括1,包括1的拆分数为f(n-1)=f(n-2),不包括1的拆分等于f(n/2)。可以采用只记录偶数的方式节省空间。#include #include #include int data[1000005];int main(){ int n; int i; dat

2016-09-16 23:45:47 223

原创 九度1083 特殊乘法

水题#include #include #include int main(){    char left[15];    char right[15];    int res;    int llen,rlen;    int i,j;    while(~scanf("%s%s",left,right))    {     

2016-09-16 23:07:53 269

原创 PAT2016甲级第四题——先根后根求中根

先根后根不能唯一确定中根的情况:左子树或右子树为空。相对于先根中根确定后根或者后根中根确定先根来说,注意长度为1的变化。先上先根中根求后根的代码:#include #include #include void gettree(char* pre,char* in,char* post,int length){    i

2016-09-16 22:42:47 460

转载 清华梦的粉碎—写给清华大学的退学申请 /王垠

王垠,四川大学97级本科毕业,保送到清华大学计算机系直博。期间曾在清华大学计算机系软件所就读,主要进行集成电路布线算法的研究。在此期间,他因《完全用GNU/Linux工作》一文和对TeX的推广等“非研究成果的业余东西”而出名。 在只剩一年就要博士毕业的时候,他申请退学,并将1万7千余字的“退学申请书”(题为清华梦的粉碎)公布在网上,引起舆论界一时对教育体制、理想主义等的热议

2016-09-16 22:34:09 607

The Elements of Statistical Learning:Data Mining, Inference, and Prediction

The Elements of Statistical Learning:Data Mining, Inference, and Prediction Trevor Hastie,Robert Tibshirani,Jerome Friedman

2017-10-06

统计学习方法 李航 清华大学出版社

统计学习方法 李航著 清华大学出版社 机器学习入门书籍

2017-09-30

Foundations of Data Science,Avrim Blum, John Hopcroft and Ravindran Kannan著

Foundations of Data Scienceby Avrim Blum, John Hopcroft and Ravindran Kannan 数据科学导论 Contents 1 Introduction 8 2 High-Dimensional Space 11 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.2 The Law of Large Numbers . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.3 The Geometry of High Dimensions . . . . . . . . . . . . . . . . . . . . . . 14 2.4 Properties of the Unit Ball . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.4.1 Volume of the Unit Ball . . . . . . . . . . . . . . . . . . . . . . . . 15 2.4.2 Most of the Volume is Near the Equator . . . . . . . . . . . . . . . 17 2.5 Generating Points Uniformly at Random from a Ball . . . . . . . . . . . . 20 2.6 Gaussians in High Dimension . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.7 Random Projection and Johnson-Lindenstrauss Lemma . . . . . . . . . . . 23 2.8 Separating Gaussians . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.9 Fitting a Single Spherical Gaussian to Data . . . . . . . . . . . . . . . . . 27 2.10 Bibliographic Notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.11 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3 Best-Fit Subspaces and Singular Value Decomposition (SVD) 38 3.1 Introduction and Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.2 Preliminaries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 3.3 Singular Vectors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.4 Singular Value Decomposition (SVD) . . . . . . . . . . . . . . . . . . . . . 44 3.5 Best Rank-k Approximations . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.6 Left Singular Vectors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.7 Power Method for Computing the Singular Value Decomposition . . . . . . 49 3.7.1 A Faster Method . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.8 Singular Vectors and Eigenvectors . . . . . . . . . . . . . . . . . . . . . . . 52 3.9 Applications of Singular Value Decomposition . . . . . . . . . . . . . . . . 52 3.9.1 Centering Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 3.9.2 Principal Component Analysis . . . . . . . . . . . . . . . . . . . . . 53 3.9.3 Clustering a Mixture of Spherical Gaussians . . . . . . . . . . . . . 54 3.9.4 Ranking Documents and Web Pages . . . . . . . . . . . . . . . . . 59 3.9.5 An Application of SVD to a Discrete Optimization Problem . . . . 60 3.10 Bibliographic Notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 3.11 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 4 Random Graphs 71 4.1 The G(n; p) Model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 4.1.1 Degree Distribution . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 4.1.2 Existence of Triangles in G(n; d=n) . . . . . . . . . . . . . . . . . . 77 4.2 Phase Transitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 4.3 The Giant Component . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 2 4.4 Branching Processes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.5 Cycles and Full Connectivity . . . . . . . . . . . . . . . . . . . . . . . . . . 102 4.5.1 Emergence of Cycles . . . . . . . . . . . . . . . . . . . . . . . . . . 102 4.5.2 Full Connectivity . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 4.5.3 Threshold for O(ln n) Diameter . . . . . . . . . . . . . . . . . . . . 105 4.6 Phase Transitions for Increasing Properties . . . . . . . . . . . . . . . . . . 107 4.7 Phase Transitions for CNF-sat . . . . . . . . . . . . . . . . . . . . . . . . . 109 4.8 Nonuniform and Growth Models of Random Graphs . . . . . . . . . . . . . 114 4.8.1 Nonuniform Models . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 4.8.2 Giant Component in Random Graphs with Given Degree Distribution114 4.9 Growth Models . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 4.9.1 Growth Model Without Preferential Attachment . . . . . . . . . . . 116 4.9.2 Growth Model With Preferential Attachment . . . . . . . . . . . . 122 4.10 Small World Graphs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 4.11 Bibliographic Notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 4.12 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 5 Random Walks and Markov Chains 139 5.1 Stationary Distribution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 5.2 Markov Chain Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . 145 5.2.1 Metropolis-Hasting Algorithm . . . . . . . . . . . . . . . . . . . . . 146 5.2.2 Gibbs Sampling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 5.3 Areas and Volumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 5.4 Convergence of Random Walks on Undirected Graphs . . . . . . . . . . . . 151 5.4.1 Using Normalized Conductance to Prove Convergence . . . . . . . . 157 5.5 Electrical Networks and Random Walks . . . . . . . . . . . . . . . . . . . . 160 5.6 Random Walks on Undirected Graphs with Unit Edge Weights . . . . . . . 164 5.7 Random Walks in Euclidean Space . . . . . . . . . . . . . . . . . . . . . . 171 5.8 The Web as a Markov Chain . . . . . . . . . . . . . . . . . . . . . . . . . . 175 5.9 Bibliographic Notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 5.10 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 6 Machine Learning 190 6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 6.2 Overtting and Uniform Convergence . . . . . . . . . . . . . . . . . . . . . 192 6.3 Illustrative Examples and Occam's Razor . . . . . . . . . . . . . . . . . . . 194 6.3.1 Learning disjunctions . . . . . . . . . . . . . . . . . . . . . . . . . . 194 6.3.2 Occam's razor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 6.3.3 Application: learning decision trees . . . . . . . . . . . . . . . . . . 196 6.4 Regularization: penalizing complexity . . . . . . . . . . . . . . . . . . . . . 197 6.5 Online learning and the Perceptron algorithm . . . . . . . . . . . . . . . . 198 6.5.1 An example: learning disjunctions . . . . . . . . . . . . . . . . . . . 198 6.5.2 The Halving algorithm . . . . . . . . . . . . . . . . . . . . . . . . . 199 3 6.5.3 The Perceptron algorithm . . . . . . . . . . . . . . . . . . . . . . . 199 6.5.4 Extensions: inseparable data and hinge-loss . . . . . . . . . . . . . 201 6.6 Kernel functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 6.7 Online to Batch Conversion . . . . . . . . . . . . . . . . . . . . . . . . . . 204 6.8 Support-Vector Machines . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 6.9 VC-Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 6.9.1 Denitions and Key Theorems . . . . . . . . . . . . . . . . . . . . . 207 6.9.2 Examples: VC-Dimension and Growth Function . . . . . . . . . . . 209 6.9.3 Proof of Main Theorems . . . . . . . . . . . . . . . . . . . . . . . . 211 6.9.4 VC-dimension of combinations of concepts . . . . . . . . . . . . . . 214 6.9.5 Other measures of complexity . . . . . . . . . . . . . . . . . . . . . 214 6.10 Strong and Weak Learning - Boosting . . . . . . . . . . . . . . . . . . . . . 215 6.11 Stochastic Gradient Descent . . . . . . . . . . . . . . . . . . . . . . . . . . 218 6.12 Combining (Sleeping) Expert Advice . . . . . . . . . . . . . . . . . . . . . 220 6.13 Deep learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 6.14 Further Current directions . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 6.14.1 Semi-supervised learning . . . . . . . . . . . . . . . . . . . . . . . . 228 6.14.2 Active learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 6.14.3 Multi-task learning . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 6.15 Bibliographic Notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 6.16 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 7 Algorithms for Massive Data Problems: Streaming, Sketching, and Sampling 237 7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237 7.2 Frequency Moments of Data Streams . . . . . . . . . . . . . . . . . . . . . 238 7.2.1 Number of Distinct Elements in a Data Stream . . . . . . . . . . . 239 7.2.2 Counting the Number of Occurrences of a Given Element. . . . . . 242 7.2.3 Counting Frequent Elements . . . . . . . . . . . . . . . . . . . . . . 243 7.2.4 The Second Moment . . . . . . . . . . . . . . . . . . . . . . . . . . 244 7.3 Matrix Algorithms using Sampling . . . . . . . . . . . . . . . . . . . . . . 247 7.3.1 Matrix Multiplication Using Sampling . . . . . . . . . . . . . . . . 249 7.3.2 Implementing Length Squared Sampling in two passes . . . . . . . . 252 7.3.3 Sketch of a Large Matrix . . . . . . . . . . . . . . . . . . . . . . . . 253 7.4 Sketches of Documents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 7.5 Bibliography . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258 7.6 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259 8 Clustering 264 8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264 8.1.1 Two general assumptions on the form of clusters . . . . . . . . . . . 265 8.2 k-means Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267 8.2.1 A maximum-likelihood motivation for k-means . . . . . . . . . . . . 267 4 8.2.2 Structural properties of the k-means objective . . . . . . . . . . . . 268 8.2.3 Lloyd's k-means clustering algorithm . . . . . . . . . . . . . . . . . 268 8.2.4 Ward's algorithm . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270 8.2.5 k-means clustering on the line . . . . . . . . . . . . . . . . . . . . . 271 8.3 k-Center Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271 8.4 Finding Low-Error Clusterings . . . . . . . . . . . . . . . . . . . . . . . . . 272 8.5 Approximation Stability . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272 8.6 Spectral Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 8.6.1 Stochastic Block Model . . . . . . . . . . . . . . . . . . . . . . . . . 276 8.6.2 Gaussian Mixture Model . . . . . . . . . . . . . . . . . . . . . . . . 278 8.6.3 Standard Deviation without a stochastic model . . . . . . . . . . . 278 8.6.4 Spectral Clustering Algorithm . . . . . . . . . . . . . . . . . . . . . 279 8.7 High-Density Clusters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 8.7.1 Single-linkage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 8.7.2 Robust linkage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282 8.8 Kernel Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283 8.9 Recursive Clustering based on Sparse cuts . . . . . . . . . . . . . . . . . . 283 8.10 Dense Submatrices and Communities . . . . . . . . . . . . . . . . . . . . . 284 8.11 Community Finding and Graph Partitioning . . . . . . . . . . . . . . . . . 287 8.11.1 Flow Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287 8.12 Axioms for Clustering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290 8.12.1 An Impossibility Result . . . . . . . . . . . . . . . . . . . . . . . . 290 8.12.2 Satisfying two of three . . . . . . . . . . . . . . . . . . . . . . . . . 291 8.12.3 Relaxing the axioms . . . . . . . . . . . . . . . . . . . . . . . . . . 293 8.12.4 A Satisable Set of Axioms . . . . . . . . . . . . . . . . . . . . . . 293 8.13 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295 9 Topic Models, Hidden Markov Process, Graphical Models, and Belief Propagation 299 9.1 Topic Models . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299 9.2 Hidden Markov Model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303 9.3 Graphical Models, and Belief Propagation . . . . . . . . . . . . . . . . . . 308 9.4 Bayesian or Belief Networks . . . . . . . . . . . . . . . . . . . . . . . . . . 308 9.5 Markov Random Fields . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309 9.6 Factor Graphs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 9.7 Tree Algorithms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 9.8 Message Passing in general Graphs . . . . . . . . . . . . . . . . . . . . . . 313 9.9 Graphs with a Single Cycle . . . . . . . . . . . . . . . . . . . . . . . . . . 315 9.10 Belief Update in Networks with a Single Loop . . . . . . . . . . . . . . . . 316 9.11 Maximum Weight Matching . . . . . . . . . . . . . . . . . . . . . . . . . . 318 9.12 Warning Propagation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 9.13 Correlation Between Variables . . . . . . . . . . . . . . . . . . . . . . . . . 322 9.14 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327 5 10 Other Topics 329 10.1 Rankings . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329 10.2 Hare System for Voting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331 10.3 Compressed Sensing and Sparse Vectors . . . . . . . . . . . . . . . . . . . 332 10.3.1 Unique Reconstruction of a Sparse Vector . . . . . . . . . . . . . . 333 10.3.2 The Exact Reconstruction Property . . . . . . . . . . . . . . . . . . 336 10.3.3 Restricted Isometry Property . . . . . . . . . . . . . . . . . . . . . 337 10.4 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339 10.4.1 Sparse Vector in Some Coordinate Basis . . . . . . . . . . . . . . . 339 10.4.2 A Representation Cannot be Sparse in Both Time and Frequency Domains . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340 10.4.3 Biological . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342 10.4.4 Finding Overlapping Cliques or Communities . . . . . . . . . . . . 342 10.4.5 Low Rank Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 343 10.5 Gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344 10.6 Linear Programming . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345 10.6.1 The Ellipsoid Algorithm . . . . . . . . . . . . . . . . . . . . . . . . 347 10.7 Integer Optimization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348 10.8 Semi-Denite Programming . . . . . . . . . . . . . . . . . . . . . . . . . . 349 10.9 Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351 11 Wavelets 354 11.1 Dilation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354 11.2 The Haar Wavelet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355 11.3 Wavelet Systems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 11.4 Solving the Dilation Equation . . . . . . . . . . . . . . . . . . . . . . . . . 359 11.5 Conditions on the Dilation Equation . . . . . . . . . . . . . . . . . . . . . 361 11.6 Derivation of the Wavelets from the Scaling Function . . . . . . . . . . . . 363 11.7 Sucient Conditions for the Wavelets to be Orthogonal . . . . . . . . . . . 367 11.8 Expressing a Function in Terms of Wavelets . . . . . . . . . . . . . . . . . 370 11.9 Designing a Wavelet System . . . . . . . . . . . . . . . . . . . . . . . . . . 371 12 Appendix 375 12.1 Asymptotic Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375 12.2 Useful relations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376 12.3 Useful Inequalities . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380 12.4 Probability . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387 12.4.1 Sample Space, Events, Independence . . . . . . . . . . . . . . . . . 388 12.4.2 Linearity of Expectation . . . . . . . . . . . . . . . . . . . . . . . . 389 12.4.3 Union Bound . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389 12.4.4 Indicator Variables . . . . . . . . . . . . . . . . . . . . . . . . . . . 389 12.4.5 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390 12.4.6 Variance of the Sum of Independent Random Variables . . . . . . . 390 6 12.4.7 Median . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391 12.4.8 The Central Limit Theorem . . . . . . . . . . . . . . . . . . . . . . 391 12.4.9 Probability Distributions . . . . . . . . . . . . . . . . . . . . . . . . 391 12.4.10Bayes Rule and Estimators . . . . . . . . . . . . . . . . . . . . . . . 395 12.4.11Tail Bounds and Cherno inequalities . . . . . . . . . . . . . . . . . 397 12.5 Bounds on Tail Probability . . . . . . . . . . . . . . . . . . . . . . . . . . . 401 12.6 Applications of the tail bound . . . . . . . . . . . . . . . . . . . . . . . . . 403 12.7 Eigenvalues and Eigenvectors . . . . . . . . . . . . . . . . . . . . . . . . . 405 12.7.1 Symmetric Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 406 12.7.2 Relationship between SVD and Eigen Decomposition . . . . . . . . 408 12.7.3 Extremal Properties of Eigenvalues . . . . . . . . . . . . . . . . . . 409 12.7.4 Eigenvalues of the Sum of Two Symmetric Matrices . . . . . . . . . 411 12.7.5 Norms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412 12.7.6 Important Norms and Their Properties . . . . . . . . . . . . . . . . 413 12.7.7 Linear Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415 12.7.8 Distance between subspaces . . . . . . . . . . . . . . . . . . . . . . 417 12.8 Generating Functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 418 12.8.1 Generating Functions for Sequences Dened by Recurrence Relationships . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419 12.8.2 The Exponential Generating Function and the Moment Generating Function . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421 12.9 Miscellaneous . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423 12.9.1 Lagrange multipliers . . . . . . . . . . . . . . . . . . . . . . . . . . 423 12.9.2 Finite Fields . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423 12.9.3 Hash Functions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424 12.9.4 Application of Mean Value Theorem . . . . . . . . . . . . . . . . . 424 12.9.5 Sperner's Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426 12.9.6 Prufer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426 12.10Exercises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427 Index 433

2017-09-26

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除