data source:数据的来源,没什么可说的。
alpha算法:就是找到一条一条的边,最大的边。
算法:bag stack queue,s[0]=null(告诉垃圾回收器可以回收了)
内存分配:数组的reference是8个字节,对象的是24个字节,数组每次分配不够的时候回将它的内存double,为什么double因为这样效率高。当内存减小的时候是shrink它的空间,什么时候?当它的内存用到四分之一的时候。
泛型:是为了省去casting这一步骤而设定的,可以在编译的时候发现错误,是否应该对数组泛型是有争议的。
foreach什么时候用?实现了iteratable接口的才可以用这个结构。
comparable是一个接口,有compareto方法和exchange方法,实现了这个接口的就可以比较大小。
排序算法:选择(最好的和坏的都是n quadritic)排序。
插入排序:对部分排好序的效率高。
shell排序:increment sequence是一个问题。为什么有希尔排序,因为可以让它部分有
序,提高效率。而且排好序的不会再乱序。这个算法提出来已将几十年了,但还是没有找到一个好的sequence
knuth shuffle :random方法,n时间复杂度,随机找一个,然后将它与第i个换。
convex hull()graham scan:ccw方法来实现。
问题:为什么poker online 只要看五个还有服务器的时钟就可以预测未来的牌?对机器学习中的第二讲中的constant的证明