1、Pallis和Stomas的又一篇,发表在一个期刊上,没被人引用。
2、相比前一篇的那个 A similarity based approach for integrated web caching and content replication in CDNs.而言,基本上就是一个内容:
1、都是讲应该同时应用缓存和副本技术,前者是用了相识性的方法,后者是通过对数据对象的分类,分为 static 和 volatile两类,把 static类的对象复制到 surrogate server的静态部分,把 volatile复制到代理服务器的动态部分。
2、如何对数据进行分类呢,主要是在初始阶段先分为两类,然后根据请求的次数进行分类,最后再运用神经网络中的 sigmod方法分成两类。
3、觉得也没什么特别,耗时,实际应用效果应该不行。