… y claro, al rato sale un vector «transformado».
Esta entrada no es, aunque pueda parecerlo, un ripio de la anterior. Algorítmicamente, transformar un vector con una matriz se parece mucho a una sucesión de productos escalares. Pero resulta que el producto escalar, al menos hasta AVX2, tiene su truco. Vamos a comenzar por la implementación más tonta:
public static double[] Mult(double[,] a, double[] x) { int m = a.GetLength(0); int n = a.GetLength(1); double[] b = new double[m]; for (int = 0; i < m; i++) { double d = 0; for (int j = 0; j < n; j++) d += a[i, j] * x[j]; b[i] = d; } return b; }
Recordemos que tenemos un «handicap» autoimpuesto por representar las matrices como arrays bidimensionales de C#. Pero esta vez no voy a dar la brasa con los punteros, que ya sabemos que resuelven este problema sin pestañear. Esta es la implementación final que necesitamos, con soporte opcional de AVX para cuando esté disponible y merezca la pena:
public static unsafe double[] Mult(double[,] a, double[] x) { int m = a.GetLength(0); int n = a.GetLength(1); double[] b = new double[m]; int lastBlockIndex = n - (n % 4); fixed (double* pA = a) fixed (double* pX = x) fixed (double* pB = b) { double* pA1 = pA; double* pB1 = pB; if (n >= 12 && Avx2.IsSupported) for (int i = 0; i < m; i++) { int j = 0; var v = Vector256<double>.Zero; while (j < lastBlockIndex) { v = Avx.Add( v, Avx.Multiply( Avx.LoadVector256(pA1 + j), Avx.LoadVector256(pX + j))); j += 4; } v = Avx.HorizontalAdd(v, v); double d = v.ToScalar() + v.GetElement(2); for (; j < n; j++) d += pA1[j] * pX[j]; *pB1 = d; pA1 += n; pB1++; } else for (int i = 0; i < m; i++) { int j = 0; double d = 0; while (j < lastBlockIndex) { d += (*(pA1 + j) * *(pX + j)) + (*(pA1 + j + 1) * *(pX + j + 1)) + (*(pA1 + j + 2) * *(pX + j + 2)) + (*(pA1 + j + 3) * *(pX + j + 3)); j += 4; } for (; j < n; j++) d += pA1[j] * pX[j]; *pB1 = d; pA1 += n; pB1++; } } return b; }
Esta vez, el código SIMD sólo se usa cuando hay doce o más elementos en el vector. La cifra la he elegido experimentando en mi i7-4770. Puede que en otros ordenadores, el umbral sea más bajo incluso.
Tengo que explicar cómo se implementa un producto escalar con SIMD, porque no es muy evidente. Uno diría que hay que acumular un escalar en una variable global al bucle… pero no hay ninguna operación SIMD que calcule directamente la suma de las cuatro multiplicaciones necesarias. La explicación oficial es que una suma de ese tipo destrozaría el paralelismo de la CPU. Y yo me lo creo, de veras. La consecuencia es que necesitamos acumular las multiplicaciones en cuatro variables; es decir, en un vector que hace de acumulador.
Las cosas se ponen de color hormiga cuando terminamos el bucle y tenemos entonces que sumar los cuatro elementos del vector acumulador. Analicemos las líneas 27 y 28 del listado anterior. Según mis experimentos, es la forma más rápida de conseguirlo. HorizontalAdd
, cuando se trata de Vector256<double>
, suma el primer elemento con el segundo, y lo almacena por partida doble en el primer y segundo elemento. A la vez, suma el tercero y el cuarto y hace lo mismo para guardar el resultado. Los métodos de extensión ToScalar()
y GetElement()
acceden entonces directamente al primer y tercer elemento y los suma. Mantengo la llamada inicial a HorizontalAdd
porque, teóricamente, puede hacer dos de las sumas en paralelo, pero puedes experimentar a ver qué pasa si accedes directamente a los cuatro elementos y los sumas como toda la vida. A mí ya se me ha acabado la partida de tiempo libre para este experimento.
La razón para la controversia es que, en realidad, Internet está lleno de recomendaciones para hacer esta suma final de esta otra manera:
v = Avx2.Permute4x64( Avx.HorizontalAdd(v, v), 0b00_10_01_11); double d = Avx.HorizontalAdd(v, v).ToScalar(); // v = Avx.HorizontalAdd(v, v); // double d = v.ToScalar() + v.GetElement(2);
Es decir: se llama dos veces a HorizontalAdd
, pasando entre medias por una permutación entre escalares. En la arquitectura Haswell, al menos, esto funciona más lento que mi solución.
Si multiplico una matriz aleatoria de 64×64 por un vector de 64 elementos, obtengo estas cifras:
Method | Mean | Error | StdDev | Median |
---|---|---|---|---|
MultVector | 5.762 μs | 0.1142 μs | 0.2227 μs | 5.646 μs |
FMultVector | 1.814 μs | 0.0320 μs | 0.0416 μs | 1.818 μs |
No está mal, aunque no conseguimos tanta ventaja como con la multiplicación entre matrices. La versión con punteros y sin SIMD tampoco va mal, pero queda muy claro que el SIMD acelera este código. De paso, ya tenemos un patrón de código para productos escalares (y para cosas más raras como multiplicar un vector de sensibilidad delta-gamma por un escenario histórico: cosas de la valoración de productos financieros).
Por cierto, el mejor chiste que conozco sobre gente que entra en un bar tiene que ver con la Mecánica Cuántica. Dice así: entra el Gato de Schrödinger en un bar… y no entra.