深度学习算法很大程度上基于矩阵运算。例如神经网络中的全连接,本质上是一个矩阵乘法;而卷积运算也通常是用矩阵乘法来完成的。有一些科研工作者为了让神经网络的计算更快捷,提出了二值化网络的方法,就是将网络权重压缩成只用两种值表示的形式,这样就可以用一些 trick 加速计算了。例如两个二进制向量点乘,可以用计算机中的与运算代替,然后统计结果中 1 的个数即可。
 
 然而有时候为了降低压缩带来的误差,只允许其中一个矩阵被压缩成二进制。这样的情况下矩阵乘法运算还能否做进一步优化呢?给定两个整数矩阵A, B,计算矩阵乘法 C = A x B。为了减少输出,你只需要计算 C 中所有元素的的异或和即可。
                            输入描述:
                                                    第一行有三个整数 N, P, M, 表示矩阵 A, B 的大小分别是 N x P, P x M 。
接下来 N 行是矩阵 A 的值,每一行有 P 个数字。第 i+1 行第 j 列的数字为 Ai,j, Ai,j 用大写的16进制表示(即只包含 0~9, A~F),每个数字后面都有一个空格。
接下来 M 行是矩阵 B 的值,每一行是一个长为 P 的 01字符串。第 i + N + 1 行第 j 个字符表示 Bj,i 的值。
                                                                            输出描述:
                                                    一个整数,矩阵 C 中所有元素的异或和。
                                                                            
                        
                            示例1
                        
                        
                            
                                输入
                                复制
                                
                                
                                    4 2 3
3 4
8 A
F 5
6 7
01
11
10
                                 
                             
                            
                                                            
                                    说明
                                    
                                        矩阵 C 的值为:
4 7 3
10 18 8
5 20 15
7 13 6
                                     
                                 
                                                     
                     
                                                        备注:
                2 ≤ N, M ≤ 4096, 1 ≤ P ≤ 64, 0 ≤ Ai,j< 65536.