MapReduce矩阵相乘

数据准备

A=147258309(1) (1) A = [ 1 2 3 4 5 0 7 8 9 ]

B=100111529(2) (2) B = [ 10 15 0 2 11 9 ]

容易看出, A A 是一个4 * 3矩阵,B是一个3 * 2矩阵,我们能够计算出:

C=AB=43401692324670202280(3) (3) C = A B = [ 43 46 40 70 169 202 232 280 ]

存储方式

理论上,在一个文件中存储4000万*4000万的矩阵当然是可以的,但非常失之优雅,因为这意味着在一条记录中挤下4000万个变量的值。

我们注意到,根据海量数据构造的矩阵,往往是极其稀疏的。比如4000万*4000万的相似度矩阵,一般来说,如果平均每个用户和1万个用户具有大于零的相似度,常识告诉我们,这样的关系网络已经非常密集了(实际网络不会这样密集,看看自己的微博,被你关注的、评论过的、转发过的对象,会达到1万个吗?);但对于4000万维度的矩阵,它却依然是极度稀疏的。

因此,我们可以采用稀疏矩阵的存储方式,只存储那些非零的数值。具体而言,存储矩阵的文件每一条记录的结构如下:

(i,j,A[i,j] ( i , j , A [ i , j ] )

其中,第一个字段i 为行标签,第二个字段j ,第三个字段值为 A[i,j] A [ i , j ]

比如矩阵 A A 在HDFS中存储为

1     1     1
1     2     2
1     3     3
2     1     4
2     2     5
3     1     7
3     2     8
3     3     9
4     1     10
4     2     11
4     3     12

矩阵B在HDFS中存储为

1     1     10
1     2     15
2     2     2
3     1     11
3     2     9

注意到A[2,3]=0 B[2,1]=0 B [ 2 , 1 ] = 0 ,这样的值不会在文件中存储。

计算模型

回顾一下矩阵乘法。

A=(aij)mn A = ( a i j ) m n B=(bjk)nl B = ( b j k ) n l ,那么
C=AB=(cik)ml=(ai1b1j++ainbnj)ml=(nk=1aikbkj)ml C = A B = ( c i k ) m l = ( a i 1 b 1 j + … + a i n b n j ) m l = ( ∑ k = 1 n a i k b k j ) m l

矩阵乘法要求左矩阵 A A 的列数与右矩阵B 的行数相等, mn m ∗ n 的矩阵 A A ,与nl的矩阵 B B 相乘,结果为ml 的矩阵 C C

现在我们来分析一下,哪些操作是相互独立的(从而可以进行分布式计算)。很显然,c11的计算和 c12 c 12 的计算是互不干扰的;事实上, C C 中各个元素的计算都是相互独立的。这样,我们在Map阶段,可以把计算c11所需要的元素都集中到同一个key中,然后,在Reduce阶段就可以从中解析出各个元素来计算 c11 c 11 C C 的其他元素的计算同理。

我们还需要注意,a11会被 c11c12c1L c 11 、 c 12 … c 1 L 的计算所使用, b11 b 11 会被 c11c21cm1 c 11 、 c 21 … c m 1 的计算所使用。也就是说,在Map阶段,当我们从HDFS取出一行记录时,如果该记录是 A A 的元素,则需要存储成L<key, value> 对,并且这L 个key互不相同;如果该记录是B 的元素,则需要存储成m< key, value> 对,同样的,m个key也应互不相同;但同时,用于计算 c11 c 11 的、存放 a11a12a1L a 11 、 a 12 … a 1 L b11b21bm1 b 11 、 b 21 … b m 1 <key, value> 对的key应该都是相同的,这样才能被传递到同一个Reduce中。
经过以上分析,整个计算过程设计为:
(1)在Map阶段,把来自表 A A 的元素aij,标识成L<key, value>的形式。其中 key=(ik)k=1,2,l k e y = ( i , k ) , k = 1 , 2 , … , l value=(ajaij) v a l u e = ( ′ a ′ , j , a i j ) ;把来自表 B B 的元素标识成m<key,value> 形式,其中
key=(ik)k=1,2,mvalue=(bjbjk)
于是乎,在Map阶段,我们实现了这样的战术目的:通过key,我们把参与计算 cik c i k 的数据归为一类。通过value,我们能区分元素是来自 A A 还是B ,以及具体的位置。
(2)在Shuffle阶段,相同key的value会被加入到同一个列表中,形成< key, list(value)>对,传递给Reduce,这个由Hadoop自动完成。
(3)在Reduce阶段,有两个问题需要自己问问:

  • 当前的< key, list(value)>对是为了计算 C C 的哪个元素?
  • list中的每个value是来自表A 或表 B B 的哪个位置?
    第一个问题可以从key中获知,因为我们在Map阶段已经将key构造为(i,k)形式。第二个问题,也可以在value中直接读出,因为我们也在Map阶段做了标志。
    接下来我们所要做的,就是把list(value)解析出来,来自 A A 的元素,单独放在一个数组中,来自B 的元素,放在另一个数组中,然后,我们计算两个数组(各自看成一个向量)的点积,即可算出 cik c i k 的值。
    示例矩阵 A A B 相乘的计算过程如下图所示:这里写图片描述

代码


import java.io.IOException;
import java.util.HashMap;
import java.util.Iterator;
import java.util.StringTokenizer;

import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.io.Writable;
import org.apache.hadoop.io.WritableComparable;
import org.apache.hadoop.mapred.FileSplit;
import org.apache.hadoop.mapred.JobConf;
import org.apache.hadoop.mapred.MapReduceBase;
import org.apache.hadoop.mapred.Mapper;
import org.apache.hadoop.mapred.OutputCollector;
import org.apache.hadoop.mapred.RecordWriter;
import org.apache.hadoop.mapred.Reducer;
import org.apache.hadoop.mapred.Reporter;
import org.apache.hadoop.mapred.TextOutputFormat;
import org.apache.hadoop.mapred.lib.MultipleOutputFormat;
import org.apache.hadoop.util.Progressable;

public class Bigmmult {
     public static final String CONTROL_I = "\u0009";
     public static final int MATRIX_I = 4;
     public static final int MATRIX_J = 3;
     public static final int MATRIX_K = 2;

     public static String makeKey(String[] tokens, String separator) {
          StringBuffer sb = new StringBuffer();
          boolean isFirst = true;
          for (String token : tokens) {
               if (isFirst)
                    isFirst = false;
               else
                    sb.append(separator);
               sb.append(token);
          }
          return sb.toString();
     }

     public static class MapClass extends MapReduceBase implements
               Mapper<LongWritable, Text, Text, Text> {         
          public static HashMap<String , Double> features = new HashMap<String, Double>();

          public void configure(JobConf job) {
               super.configure(job);
          }

          public void map(LongWritable key, Text value, OutputCollector<Text, Text> output,
                    Reporter reporter) throws IOException, ClassCastException {
               // 获取输入文件的全路径和名称
               String pathName = ((FileSplit)reporter.getInputSplit()).getPath().toString();

               if (pathName.contains("m_ys_lab_bigmmult_a")) {         
                    String line = value.toString();

                    if (line == null || line.equals("")) return;
                    String[] values = line.split(CONTROL_I);

                    if (values.length < 3) return;

                    String rowindex = values[0];
                    String colindex = values[1];
                    String elevalue = values[2];

                    for (int i = 1; i <= MATRIX_K; i ++) {
                         output.collect(new Text(rowindex + CONTROL_I + i), new Text("a#"+colindex+"#"+elevalue));
                    }
               }

               if (pathName.contains("m_ys_lab_bigmmult_b")) {              
                    String line = value.toString();
                    if (line == null || line.equals("")) return;
                    String[] values = line.split(CONTROL_I);

                    if (values.length < 3) return;

                    String rowindex = values[0];
                    String colindex = values[1];
                    String elevalue = values[2];

                    for (int i = 1; i <= MATRIX_I; i ++) {
                         output.collect(new Text(i + CONTROL_I + colindex), new Text("b#"+rowindex+"#"+elevalue));
                    }
               }
          }
     }

     public static class Reduce extends MapReduceBase
               implements Reducer<Text, Text, Text, Text> {
          public void reduce(Text key, Iterator<Text> values,
                    OutputCollector<Text, Text> output, Reporter reporter)
                    throws IOException {

               int[] valA = new int[MATRIX_J];
               int[] valB = new int[MATRIX_J];

               int i;
               for (i = 0; i < MATRIX_J; i ++) {
                    valA[i] = 0;
                    valB[i] = 0;
               }

               while (values.hasNext()) {
                    String value = values.next().toString();
                    if (value.startsWith("a#")) {
                         StringTokenizer token = new StringTokenizer(value, "#");
                         String[] temp = new String[3];
                         int k = 0;
                         while(token.hasMoreTokens()) {
                              temp[k] = token.nextToken();
                              k++;
                         }

                         valA[Integer.parseInt(temp[1])-1] = Integer.parseInt(temp[2]);
                    } else if (value.startsWith("b#")) {
                         StringTokenizer token = new StringTokenizer(value, "#");
                         String[] temp = new String[3];
                         int k = 0;
                         while(token.hasMoreTokens()) {
                              temp[k] = token.nextToken();
                              k++;
                         }

                         valB[Integer.parseInt(temp[1])-1] = Integer.parseInt(temp[2]);
                    }
               }

               int result = 0;
               for (i = 0; i < MATRIX_J; i ++) {
                    result += valA[i] * valB[i];
               }

               output.collect(key, new Text(Integer.toString(result)));
          }
     }
}
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值