GEMM⚓︎
摘要
本文梳理 CUDA 中通用矩阵乘法 (GEMM) 算子的演进与优化路径。从朴素的 Naive GEMM 实现出发,经历 Tiled GEMM、共享内存复用、寄存器分块以及向量化加载,最终逐步逼近硬件算力上限。并附带探讨 Tensor Core / WMMA 以及 cuBLAS 相关的工程选型。
核心问题与运算特征⚓︎
GEMM (General Matrix Multiply) 是 CUDA 中典型的高频核心算子。深度学习中的线性层、卷积变换、Attention 中的大量操作都可以归约为 GEMM 或 batched GEMM。它同时具有高计算密度和明确的数据复用结构的特点。很多深度性能优化技术,例如 Tiling、共享内存复用、向量化加载、软件流水线 (Software Pipelining) 以及 Tensor Core 都会在 GEMM 中集中体现。
在讨论具体优化的实现之前,需要首先明确通用矩阵乘法的理论计算量。GEMM 的基本形式为:
结合现有实现,假设输入矩阵 A 的维度为 M \times K,矩阵 B 的维度为 K \times N,所得结果矩阵 C 的维度为 M \times N。
结果矩阵 C 中的每一个元素 C_{i,j} 均由矩阵 A 的第 i 行与矩阵 B 的第 j 列进行点积(Dot Product)计算得到。计算单个元素 C_{i,j} 需要 K 次对应元素的乘法以及 K - 1 次乘积的累加。
结果矩阵 C 共有 M \times N 个元素,全局总运算量为 M \times N \times K 次乘法与 M \times N \times (K - 1) 次加法。
在高性能计算设备(如 GPU)中,一次乘法与一次加法通常会被组合为单次的乘累加操作(Multiply-Accumulate, MAC)。因此,总的 MAC 执行次数约为 M \times N \times K。对于边长为 N 的方阵,标准矩阵乘法的时间复杂度为 O(N^3)。
对于大规模矩阵运算,实际执行性能往往最先受限于全局内存访问与数据搬运的物理带宽上限,而非单纯的算术逻辑单元能力。这也是后续优化路线致力于提升计算访存比(Arithmetic Intensity)的核心工程原因。
优化路线概览⚓︎
CUDA GEMM 算子的优化主要分为以下几个阶段:
- 朴素实现 (Naive Implementation):直接使用多维线程网格映射矩阵元素进行计算。
- 访存合并 (Coalesced Memory Access):调整线程与数据映射关系,满足全局内存合并访问。
- 共享内存分块 (Shared Memory Tiling):引入共享内存缓存数据,降低全局内存访问延迟与带宽压力。
- 一维寄存器分块 (1D Register Tiling / Thread Coarsening):通过线程粗化复用寄存器数据,增加计算访存比,减少共享内存访问。
- 二维寄存器分块 (2D Register Tiling):采用外积 (Outer Product) 形式进行二维分块,最大化数据复用。
- 向量化访存 (Vectorized Memory Loads):利用
float4等内置类型提升一次性内存加载的总线宽度。 - 共享内存填充与重排 (Padding & Swizzling):消除共享内存 bank conflict 并优化全局内存访存模式。
原理与实现细节⚓︎
朴素实现⚓︎
基础思路是将计算资源映射到输出矩阵 C 上。每一个线程负责计算矩阵 C 中的一个元素。
由于每一次乘加 (FMA) 计算都需要从全局内存中加载对应的行与列,内存访问非常密集,且由于矩阵通常采用行优先 (Row-Major) 存储,访问 A 或 B 时往往存在较差的空间局部性。
朴素实现代码
// GEMM 01 -- NAIVE IMPLEMENTATION
// SGEMM is C = α*(A @ B)+β*C; here α=1, β=0
__global__ void naive_kernel(float *A, float *B, float *C, int M, int N, int K) {
// 2D thread layout: one thread computes one output element C[row, col].
const int row = blockDim.x * blockIdx.x + threadIdx.x;
const int col = blockDim.y * blockIdx.y + threadIdx.y;
if (row < M && col < N) {
float dot_prod = 0;
// Read A[row, 0:K] and B[0:K, col] directly from global memory.
for (int k = 0; k < K; ++k) { dot_prod += A[row * K + k] * B[k * N + col]; }
// Write one output element: C[row, col].
C[row * N + col] = dot_prod;
}
}
void gemm1(float *A, float *B, float *C, int M, int N, int K) {
constexpr int BLOCK_X = 32, BLOCK_Y = 32;
dim3 dim_block(BLOCK_X, BLOCK_Y, 1);
dim3 dim_grid((M + BLOCK_X - 1) / BLOCK_X, (N + BLOCK_Y - 1) / BLOCK_Y, 1);
naive_kernel<<<dim_grid, dim_block>>>(A, B, C, M, N, K);
}
访存合并⚓︎
CUDA 需要同一个 warp 内部的线程合并访问一段连续的对齐的全局内存地址(即 Memory Coalescing)。 在上面的朴素实现中,随着 threadIdx.x 的增长(同一 warp 内部),row 发生变化,导致访问 d_A[row * A_n_cols + k] 为跳跃访问。同样地,d_C 的访问也是非连续的。
优化方式是调换 row 和 col 对 threadIdx 的映射关系,使 threadIdx.x(连续线程)对应 col,从而保证对 d_C 和 d_B 取值的内存连续性。
访存合并代码
// GEMM 02 -- COALESCED MAT_MUL IMPLEMENTATION
// SGEMM is C = α*(A @ B)+β*C; here α=1, β=0
__global__ void coalesced_kernel(float *A, float *B, float *C, int M, int N, int K) {
// Swap the mapping so warp lanes advance along columns for more coalesced global reads from B and
// writes to C[row, col].
const int col = blockDim.x * blockIdx.x + threadIdx.x;
const int row = blockDim.y * blockIdx.y + threadIdx.y;
if (row < M && col < N) {
float dot_prod = 0;
// Still reads A[row, 0:K] and B[0:K, col] from global memory, but with a more
// cache/transaction-friendly thread layout.
for (int k = 0; k < K; ++k) { dot_prod += A[row * K + k] * B[k * N + col]; }
C[row * N + col] = dot_prod;
}
}
void gemm2(float *A, float *B, float *C, int M, int N, int K) {
constexpr int BLOCK_X = 32, BLOCK_Y = 32;
dim3 dim_block(BLOCK_X, BLOCK_Y, 1);
dim3 dim_grid((M + BLOCK_X - 1) / BLOCK_X, (N + BLOCK_Y - 1) / BLOCK_Y, 1);
coalesced_kernel<<<dim_grid, dim_block>>>(A, B, C, M, N, K);
}
共享内存分块⚓︎
由于每一个元素的计算都需要多次从全局内存读入相同的行列数据,全局内存带宽将快速成为性能瓶颈。 根据 Roofline Model,若要提升算存上限,必须增加运算访存比 (Arithmetic Intensity)。
引入 Shared Memory 作为 Cache。每次将一块较小的 TILE_WIDTH 大小的 A 矩阵和 B 矩阵从全局内存搬入 Shared Memory 中,再由 block 内的线程在这个 Tile 上完成局部矩阵乘加。随后继续处理下一个 K 方向的分块。
通过对比基于全局内存的 Naive GEMM 与基于共享内的 Tiled GEMM,数据复用的巨大差异十分明显:
| 实现策略 | 全局内存 (Global Memory) 复用 | 共享内存 (Shared Memory) 复用 | 运算访存比 (Arithmetic Intensity) 演进方向 |
|---|---|---|---|
| Naive GEMM | 极低。同一个 A[row, k] 会被多个线程直接重复读取。 | 无 | 持续受限于 Memory-Bound |
| Tiled GEMM | 较高。一次加载满足整个线程块内的计算需求。 | 有(按局部瓦片缓存与反复计算) | 更容易向 Compute-Bound 方向跨越 |
因此,Tiled GEMM 的核心收益不单纯是加速了存取,更重要的是将单次全局内存读取转化为多次有效的计算复用。
分块计算 (Tiled Multiply-Accumulate) 示意
对于输出矩阵 C 中的一个子块 C_{tile},它的计算被分为多个阶段 t。在每一个阶段,都会从处于全局内存中的全量矩阵取出对应的 A_{tile}^{(t)} 与 B_{tile}^{(t)} 转入快速的共享内存:
沿着 K 维度不断滑动取出下一个区块,直至将所有对应的分块全部被乘加完毕。通过在 Block 内复用这载入的 2 \times 2 晶块,实现了内存访存带宽的骤减。
共享内存分块代码
// GEMM 03 -- TILED MAT_MUL IMPLEMENTATION
// SGEMM is C = α*(A @ B)+β*C; here α=1, β=0
template <int TILE_WIDTH>
__global__ void tiled_kernel(float *A, float *B, float *C, int M, int N, int K) {
assert(TILE_WIDTH == blockDim.x);
assert(TILE_WIDTH == blockDim.y);
const int block_col = blockIdx.x;
const int block_row = blockIdx.y;
const int thread_col = threadIdx.x;
const int thread_row = threadIdx.y;
// One block computes the C tile
// C[block_row*TILE_WIDTH:(block_row+1)*TILE_WIDTH,
// block_col*TILE_WIDTH:(block_col+1)*TILE_WIDTH].
// One thread computes one output element C[c_row, c_col].
const int c_row = TILE_WIDTH * block_row + thread_row;
const int c_col = TILE_WIDTH * block_col + thread_col;
const int num_tiles = (K + TILE_WIDTH - 1) / TILE_WIDTH;
// For each tile in K:
// sh_A[row_in_tile][k_in_tile] <- A[block_row tile, current K tile]
// sh_B[k_in_tile][col_in_tile] <- B[current K tile, block_col tile]
__shared__ float sh_A[TILE_WIDTH][TILE_WIDTH];
__shared__ float sh_B[TILE_WIDTH][TILE_WIDTH];
float accum = 0.0f;
for (int tile = 0; tile < num_tiles; ++tile) {
// This thread loads one A element:
// global A[c_row, tile*TILE_WIDTH + thread_col]
// -> sh_A[thread_row][thread_col].
if (c_row < M && tile * TILE_WIDTH + thread_col < K) {
sh_A[thread_row][thread_col] = A[c_row * K + tile * TILE_WIDTH + thread_col];
} else {
sh_A[thread_row][thread_col] = 0.0f;
}
// This thread loads one B element:
// global B[tile*TILE_WIDTH + thread_row, c_col]
// -> sh_B[thread_row][thread_col].
if (tile * TILE_WIDTH + thread_row < K && c_col < N) {
sh_B[thread_row][thread_col] = B[(tile * TILE_WIDTH + thread_row) * N + c_col];
} else {
sh_B[thread_row][thread_col] = 0.0f;
}
__syncthreads();
// Shared-memory tiles are reused by all threads in the block across this K slice.
for (int k_tile = 0; k_tile < TILE_WIDTH; ++k_tile) {
accum += sh_A[thread_row][k_tile] * sh_B[k_tile][thread_col];
}
__syncthreads();
}
if (c_row < M && c_col < N) { C[c_row * N + c_col] = accum; }
}
void gemm3(float *A, float *B, float *C, int M, int N, int K) {
constexpr int TILE_WIDTH = 32;
dim3 dim_block(TILE_WIDTH, TILE_WIDTH, 1);
dim3 dim_grid((M + TILE_WIDTH - 1) / TILE_WIDTH, (N + TILE_WIDTH - 1) / TILE_WIDTH, 1);
tiled_kernel<TILE_WIDTH><<<dim_grid, dim_block>>>(A, B, C, M, N, K);
}
这里建议先按三个层次阅读注释:
block_row/block_col表示当前 Block 负责的输出分块位置。thread_row/thread_col或a_load_*、b_load_*表示当前线程在本轮加载中负责的局部坐标。c_row、c_col或c_row_in_tile、c_col_in_tile表示当前线程最终负责写回的输出位置。
后续的一维寄存器分块、二维寄存器分块与向量化版本都沿用这套命名方式,只是每个线程负责的输出区域从单个元素逐步扩展为一条竖向条带或一个二维子块。
同步屏障
每加载一个 Tile 完成后,需要调用 __syncthreads() 防止读取发生脏数据覆盖。 当计算完成后,由于同一个 block 还需读取下一个 Tile 的新数据覆写此共享内存块,所以必须在块计算末尾再次调用 __syncthreads()。
寄存器分块⚓︎
即便降低了对全局内存的请求,Shared Memory 依然比 Register (寄存器) 慢,同时可能面临 Bank Conflict 的风险与指令延迟瓶颈。
线程粗化 (Thread Coarsening) 的设计使一个线程不再只计算一个输出元素,而是负责一组连续的输出元素。这样在一个线程内部,从 Shared Memory 加载的数据可以被多次重复用于不同的乘加计算。引入局部数组 float dot_prod[COARSE_FACTOR] 缓冲多条运算结果,提升了计算访存比,从而更有效地掩盖访存与指令延迟。
优化的核心机制⚓︎
这部分设计的核心目标是最大化内存带宽利用率,具体机制如下:
- 寄存器复用 (Register Reuse):在代码中,设置了
COARSE_FACTOR = 8,意味着每个线程负责计算输出矩阵 C 中同一列上的 8 个连续元素。在内层循环中,共享内存中的 B 矩阵元素读取一次即可存入寄存器,随后该寄存器变量被连续使用 8 次,与 A 矩阵分块中的 8 个不同元素进行乘法累加。这种机制将对共享内存 B 分块的读请求减少了 87.5\%。 - 合并全局内存访问 (Memory Coalescing):矩阵 A 和 B 在共享内存中的分块维度不同(如 A 为 64 \times 8,B 为 8 \times 64)。为了在填充 Shared Memory 时保持连续线程对全局内存的合并访问,代码使用了一维线程块,并通过坐标映射关系,使相同的一维线程索引在读取这两种维度的数据时,分别对应出符合连续访问要求的逻辑坐标。
- 指令级并行 (Instruction-Level Parallelism, ILP):通过使用局部数组进行累加,编译器通常会将最内层的循环完全展开。这允许硬件发射多条无数据依赖的浮点乘加(FMA)指令,从而有效隐藏指令延迟。
坐标与索引映射逻辑⚓︎
为了理解线程映射,首先明确线程块(Thread Block)的规模。以分块大小 64 \times 64、COARSE_FACTOR=8 为例,分块 A (64 \times 8 = 512 个元素) 与分块 B (8 \times 64 = 512 个元素) 决定了线程块需包含 512 个线程(一维索引 threadIdx.x 范围 0 \sim 511)。
1. 负责数据加载的局部坐标(1D \rightarrow 2D)
为了保证从全局内存加载数据时的合并访存,连续的线程 (threadIdx.x) 必须访问连续的内存地址(即目标矩阵的列元素)。在 Tiled 块的读取中,A 和 B 经常展现不同的物理跨度。假设 A 分块 维度为 128 \times 8,B 分块 为 8 \times 128,则由于它们所在的矩阵均按行主序 (Row-Major) 存储:
- 读取
A分块时关心的是行向复用(使线程沿着短边的 8 个元素加载,即横向步进小)。 - 读取
B分块时关心的是列向复用(使同一个 Warp 横向覆盖一整段连续的长边 128 列块)。
代码里将这组加载坐标直接命名为 a_load_row、a_load_k、b_load_k、b_load_col,对应关系如下:
- 矩阵 A 的加载坐标:目标是填充
TILE_A_ROWS\timesTILE_A_COLS的共享内存。
通过对列数求整除与求余,相邻的线程会访问相同的行和相邻的 K 方向元素,确保对 A 矩阵(按行主序存储)发起连续读取。
- 矩阵 B 的加载坐标:目标是填充
TILE_A_COLS\timesTILE_B_COLS的共享内存。
同理,每 TILE_B_COLS 个连续的线程负责读取 B 矩阵分块中的一整行,完全契合硬件的合并访问要求。
一维线程网格重塑 (Thread Reshaping) 示意
假设我们有一个极简的包含 8 个线程的一维线程块(threadIdx.x 范围为 0 \sim 7),我们要用它去合并加载两种不同形状的局部阵列:
第一种:偏“瘦高”的 A 分块 (设它为 4 \times 2),此时 TILE_A_COLS = 2。 根据公式推求,这 8 个连续的线性线程将被自然重塑为以下阵列:
第二种:偏“扁平”的 B 分块 (设它为 2 \times 4),此时 TILE_B_COLS = 4。 按照对应的分块列数基准计算,同一批 8 个线程在加载 B 矩阵时,会被重新映射为另一种逻辑形态:
在这两种不同的形态维度下,最内侧的连续内存地址单元始终由序号连续的线程(如前者的 T_0, T_1 与后者的 T_0, T_1, T_2, T_3)访问。这种基于索引运算的映射关系,有效确保了无论读取跨度差异极大的 A 还是 B,硬件均能触发一致且高效的连续合并访存(Memory Coalescing)。
2. 负责计算与输出的全局坐标
在计算阶段,当前线程块需要生成一个 64 \times 64 尺寸的输出矩阵 C 分块(共 4096 个元素)。由 512 个线程分担,每个线程计算同一列上的 8 个连续行元素。
- 列坐标 (
c_col):连续的线程被分配到连续的列,保证最终写回矩阵 C 时仍能保持合并访存。 - 起始行坐标 (
c_row0):表示 512 个线程在纵向被分成了 8 个线程组。每个线程组负责 8 行,组与组之间的行偏移为 0, 8, 16, \dots, 56。
在内层点积循环中,存放乘加结果的局部数组的相对偏移量恰好与矩阵 A 共享分块的行索引严密对齐。
一维寄存器分块代码
// GEMM 04 -- COARSE 1D MAT_MUL IMPLEMENTATION
// SGEMM is C = α*(A @ B)+β*C; here α=1, β=0
template <int COARSE_FACTOR, int TILE_A_ROWS, int TILE_A_COLS, int TILE_B_COLS>
__global__ void coarse1D_kernel(float *A, float *B, float *C, int M, int N, int K) {
const int block_col = blockIdx.x;
const int block_row = blockIdx.y;
const int thread_id = threadIdx.x;
// One block computes the C tile of size TILE_A_ROWS x TILE_B_COLS:
// C[block_row*TILE_A_ROWS:(block_row+1)*TILE_A_ROWS,
// block_col*TILE_B_COLS:(block_col+1)*TILE_B_COLS].
// Load coordinates contributed by this thread for the current shared-memory tiles.
const int a_load_row = thread_id / TILE_A_COLS;
const int a_load_k = thread_id % TILE_A_COLS;
const int c_row_group = thread_id / TILE_B_COLS;
const int thread_col = thread_id % TILE_B_COLS;
const int b_load_k = c_row_group;
const int b_load_col = thread_col;
// This thread accumulates one vertical strip
// C[c_row0:c_row0+COARSE_FACTOR, c_col].
const int c_row0 = TILE_A_ROWS * block_row + COARSE_FACTOR * c_row_group;
const int c_col = TILE_B_COLS * block_col + thread_col;
const int num_tiles = (K + TILE_A_COLS - 1) / TILE_A_COLS;
// For each tile in K:
// sh_A[row_in_tile][k_in_tile] <- A[block_row tile, current K tile]
// sh_B[k_in_tile][col_in_tile] <- B[current K tile, block_col tile]
__shared__ float sh_A[TILE_A_ROWS][TILE_A_COLS];
__shared__ float sh_B[TILE_A_COLS][TILE_B_COLS];
float accum[COARSE_FACTOR] = {0.0f};
for (int tile = 0; tile < num_tiles; ++tile) {
// This thread loads one A element:
// global A[block_row*TILE_A_ROWS + a_load_row, tile*TILE_A_COLS + a_load_k]
// -> sh_A[a_load_row][a_load_k].
if (block_row * TILE_A_ROWS + a_load_row < M && tile * TILE_A_COLS + a_load_k < K) {
sh_A[a_load_row][a_load_k]
= A[(block_row * TILE_A_ROWS + a_load_row) * K + tile * TILE_A_COLS + a_load_k];
} else {
sh_A[a_load_row][a_load_k] = 0.0f;
}
// This thread loads one B element:
// global B[tile*TILE_A_COLS + b_load_k, block_col*TILE_B_COLS + b_load_col]
// -> sh_B[b_load_k][b_load_col].
if (tile * TILE_A_COLS + b_load_k < K && block_col * TILE_B_COLS + b_load_col < N) {
sh_B[b_load_k][b_load_col]
= B[(tile * TILE_A_COLS + b_load_k) * N + block_col * TILE_B_COLS + b_load_col];
} else {
sh_B[b_load_k][b_load_col] = 0.0f;
}
__syncthreads();
// One shared B value is reused across COARSE_FACTOR output rows from the same thread.
for (int k_tile = 0; k_tile < TILE_A_COLS; ++k_tile) {
const float b_val = sh_B[k_tile][thread_col];
for (int c = 0; c < COARSE_FACTOR; ++c) {
accum[c] += sh_A[c_row_group * COARSE_FACTOR + c][k_tile] * b_val;
}
}
__syncthreads();
}
for (int c = 0; c < COARSE_FACTOR; ++c) {
if (c_row0 + c < M && c_col < N) { C[(c_row0 + c) * N + c_col] = accum[c]; }
}
}
void gemm4(float *A, float *B, float *C, int M, int N, int K) {
constexpr int COARSE_FACTOR = 8, TILE_A_ROWS = 64, TILE_A_COLS = 8, TILE_B_COLS = 64;
dim3 dim_grid((N + TILE_B_COLS - 1) / TILE_B_COLS, (M + TILE_A_ROWS - 1) / TILE_A_ROWS);
dim3 dim_block(TILE_A_ROWS * TILE_B_COLS / COARSE_FACTOR);
coarse1D_kernel<COARSE_FACTOR, TILE_A_ROWS, TILE_A_COLS, TILE_B_COLS>
<<<dim_grid, dim_block>>>(A, B, C, M, N, K);
}
二维寄存器分块⚓︎
上述的一维分块仅在一个维度展开,寄存器复用率仍有提升空间。引入外积的计算模式,二维寄存器分块 (2D Register Tiling) 让每个线程负责计算 COARSE_Y * COARSE_X 的二维输出子块。单线程只需将对应的 Register_A 列片段和 Register_B 行片段分别加载一次,即可在其内部执行 COARSE_Y * COARSE_X 次乘加运算。
该比例反映了计算次数与访存次数的比值。增加分块边界可以有效提高计算密度,向 Compute-bound 方向靠拢。
外积 (Outer Product) 覆盖输出子块示意
在最内层的循环结构中,每一个线程的寄存器数组被分为两组:分别保持长为 COARSE\_Y 的列向量片段 regA 与长为 COARSE\_X 的行向量片段 regB。它们被利用执行局部外积:
单线程仅需将其加载入寄存器一次(执行 X+Y 次读取),便能在局部完成整个维度的外积操作(即 X \times Y 次 FMA 计算)并直接累加进局部二维寄存器中。通过提升操作并发数并减少内存读取量,从根本上突破了物理内存带宽的瓶颈。
优化的核心机制⚓︎
- 二维寄存器复用 (2D Register Tiling):每个线程负责计算输出矩阵 C 中的一个二维子块(对于 8 \times 8 设置,对应 64 个元素)。最内层循环中,线程从 Shared Memory 分别读取元素至两个寄存器数组,并执行嵌套乘加运算。此机制下,执行 64 次乘加仅需从 Shared Memory 加载 16 个元素,大幅降低了共享内存的带宽压力与读取延迟。
- 分离数据加载与计算维度 (Thread Decoupling):采用二维分块后,完成子块计算所需的总线程数大幅减少。例如,128 \times 128 分块总计需要计算 16384 个元素,若每线程处理 64 个元素,则只需 256 个线程。然而对应的 A 和 B 共享分块各有 2048 个元素,少量线程无法在单次指令内加载完毕。通过引入步长(Stride)循环机制,赋予单个线程执行多轮连续寻址读取的能力,从而将内存加载与乘加计算的线程网格相互独立。
坐标与索引映射逻辑⚓︎
- 线程规模与步长计算:根据分块与粗化因子推断所需的总线程数 N_{threads}。由于线程总量少于待加载数据量,步长量定义了每个线程在多轮共享内存填充时纵向跨越的行数:
- 全局内存加载的局部坐标:核心要求在于确保连续的计算线程访问连续的数据列地址。一维线程在加载阶段通过如下坐标运算实现对应数据的定位:
在加载矩阵 A 时,以计算出的 a_load_row 为基础偏移,线程在循环中每次向下跨越 Stride_A 行,而 a_load_k 保持不变,始终维持连续横向读取的最优内存合并访问。矩阵 B 的读取同理,利用 b_load_col 对齐连续列地址,并让 b_load_k 沿 K 方向步进。
- 计算与输出的局部坐标:在计算阶段,一维线程索引被映射为对应输出子块左上角在 Block 内的二维定位基准。代码里对应为
c_row_in_tile与c_col_in_tile:
藉由上述逻辑网格坐标转换,可精确定出该线程负责的输出子矩阵的起始行与列偏移。
- 结果写回至全局内存:乘加循环结束后,利用所求得的基础定位坐标 (
c_row_in_tile,c_col_in_tile) 与嵌套循环的二维增量索引,将寄存器数组中缓存的所有运算结果逐一归写至对应全局内存坐标。
二维加载步长 (Stride Loading) 示意
假设在 128 \times 128 分块、8 \times 8 二维寄存器粗化的配置中,总计使用 256 个线程。 而 A 矩阵对应的 Shared Memory 分块尺寸为 128 \times 8(共 1024 个元素)。
由于总线程数远小于单次需加载的数据量,线程网格必须在列方向循环向下“步进”(Stride)。由于 A 的列宽为 8(TILE_A_COLS),这一批 256 个一维线程在视觉上构成了一个 32 \times 8 的二维拾取网格:
在第一步加载时,这 256 个线程从全局内存读取并覆盖了 A 分块的前 32 行。接下来由于步长 Stride_A = 32,该线程网格会在加载循环中纵向平移 3 次,每次步进 32 行,在维持极高读取合并率的前提下,完整填满容量达 128 行的局部缓存区。
二维寄存器分块代码
// GEMM 05 -- COARSE 2D MAT_MUL IMPLEMENTATION
// SGEMM is C = α*(A @ B)+β*C; here α=1, β=0
template <int COARSE_X, int COARSE_Y, int TILE_A_ROWS, int TILE_A_COLS, int TILE_B_COLS>
__global__ void coarse2D_kernel(float *A, float *B, float *C, int M, int N, int K) {
constexpr int num_threads = TILE_A_ROWS * TILE_B_COLS / (COARSE_X * COARSE_Y);
static_assert(num_threads % TILE_A_COLS == 0);
static_assert(num_threads % TILE_B_COLS == 0);
const int block_col = blockIdx.x;
const int block_row = blockIdx.y;
const int thread_id = threadIdx.x;
// One block computes the C tile
// C[block_row*TILE_A_ROWS:(block_row+1)*TILE_A_ROWS,
// block_col*TILE_B_COLS:(block_col+1)*TILE_B_COLS].
// Load coordinates contributed by this thread for the current shared-memory tiles.
const int a_load_row = thread_id / TILE_A_COLS;
const int a_load_k = thread_id % TILE_A_COLS;
const int b_load_k = thread_id / TILE_B_COLS;
const int b_load_col = thread_id % TILE_B_COLS;
const int a_load_row_stride = num_threads / TILE_A_COLS;
const int b_load_k_stride = num_threads / TILE_B_COLS;
// This thread accumulates a COARSE_Y x COARSE_X patch whose top-left corner is
// (c_row_in_tile, c_col_in_tile) inside the block tile.
const int c_row_in_tile = COARSE_Y * (thread_id / (TILE_B_COLS / COARSE_X));
const int c_col_in_tile = COARSE_X * (thread_id % (TILE_B_COLS / COARSE_X));
const int num_tiles = (K + TILE_A_COLS - 1) / TILE_A_COLS;
// For each tile in K:
// sh_A[row_in_tile][k_in_tile] <- A[block_row tile, current K tile]
// sh_B[k_in_tile][col_in_tile] <- B[current K tile, block_col tile]
__shared__ float sh_A[TILE_A_ROWS][TILE_A_COLS];
__shared__ float sh_B[TILE_A_COLS][TILE_B_COLS];
float accum[COARSE_Y][COARSE_X] = {0.0f};
float a_frag[COARSE_Y] = {0.0f};
float b_frag[COARSE_X] = {0.0f};
for (int tile = 0; tile < num_tiles; ++tile) {
// Fill sh_A for the current K tile.
// Each thread visits row_in_tile = a_row_base + a_load_row, k_in_tile = a_load_k.
// global A[block_row*TILE_A_ROWS + row_in_tile, tile*TILE_A_COLS + k_in_tile]
// -> sh_A[row_in_tile][k_in_tile].
for (int a_row_base = 0; a_row_base < TILE_A_ROWS; a_row_base += a_load_row_stride) {
const int row_in_tile = a_row_base + a_load_row;
if (block_row * TILE_A_ROWS + row_in_tile < M && tile * TILE_A_COLS + a_load_k < K) {
sh_A[row_in_tile][a_load_k]
= A[(block_row * TILE_A_ROWS + row_in_tile) * K + tile * TILE_A_COLS + a_load_k];
} else {
sh_A[row_in_tile][a_load_k] = 0.0f;
}
}
// Fill sh_B for the current K tile.
// Each thread visits k_in_tile = b_k_base + b_load_k, col_in_tile = b_load_col.
// global B[tile*TILE_A_COLS + k_in_tile, block_col*TILE_B_COLS + col_in_tile]
// -> sh_B[k_in_tile][col_in_tile].
for (int b_k_base = 0; b_k_base < TILE_A_COLS; b_k_base += b_load_k_stride) {
const int k_in_tile = b_k_base + b_load_k;
if (tile * TILE_A_COLS + k_in_tile < K && block_col * TILE_B_COLS + b_load_col < N) {
sh_B[k_in_tile][b_load_col]
= B[(tile * TILE_A_COLS + k_in_tile) * N + block_col * TILE_B_COLS + b_load_col];
} else {
sh_B[k_in_tile][b_load_col] = 0.0f;
}
}
__syncthreads();
// Shared-memory values are promoted to registers and reused across the thread's output patch.
for (int k_tile = 0; k_tile < TILE_A_COLS; ++k_tile) {
for (int i = 0; i < COARSE_Y; ++i) { a_frag[i] = sh_A[c_row_in_tile + i][k_tile]; }
for (int i = 0; i < COARSE_X; ++i) { b_frag[i] = sh_B[k_tile][c_col_in_tile + i]; }
for (int row_offset = 0; row_offset < COARSE_Y; ++row_offset) {
for (int col_offset = 0; col_offset < COARSE_X; ++col_offset) {
accum[row_offset][col_offset] += a_frag[row_offset] * b_frag[col_offset];
}
}
}
__syncthreads();
}
// Write back the thread-local COARSE_Y x COARSE_X patch.
for (int row_offset = 0; row_offset < COARSE_Y; ++row_offset) {
for (int col_offset = 0; col_offset < COARSE_X; ++col_offset) {
if (block_row * TILE_A_ROWS + c_row_in_tile + row_offset < M
&& block_col * TILE_B_COLS + c_col_in_tile + col_offset < N) {
C[(block_row * TILE_A_ROWS + c_row_in_tile + row_offset) * N + block_col * TILE_B_COLS
+ c_col_in_tile + col_offset] = accum[row_offset][col_offset];
}
}
}
}
void gemm5(float *A, float *B, float *C, int M, int N, int K) {
// Original parameters : COARSE_X=8, COARSE_Y=8, TILE_A_ROWS=128, TILE_A_COLS=16, TILE_B_COLS=128.
// Optimized parameters on RTX 6000 Ada GPU:
constexpr int COARSE_X = 4, COARSE_Y = 8, TILE_A_ROWS = 64, TILE_A_COLS = 16, TILE_B_COLS = 128;
dim3 dim_grid((N + TILE_B_COLS - 1) / TILE_B_COLS, (M + TILE_A_ROWS - 1) / TILE_A_ROWS);
dim3 dim_block(TILE_A_ROWS * TILE_B_COLS / (COARSE_X * COARSE_Y));
coarse2D_kernel<COARSE_X, COARSE_Y, TILE_A_ROWS, TILE_A_COLS, TILE_B_COLS>
<<<dim_grid, dim_block>>>(A, B, C, M, N, K);
}
向量化访存⚓︎
由于 CUDA 设备的内存事务处理具有固定的请求宽度设计,若以单 float 单元为循环单位加载全局内存,将导致较低的数据总线利用率与较多的指令开销。
通过使用 float4 等内建向量数据类型拷贝,单条 LGD.E.128 (128-bit global load) 即可将 4 个 float(16 Bytes)一次性加载至寄存器并转入 Shared Memory。这一转变精简了读取次数与地址寻址开销。
向量化访存代码
#include "assert.h"
// GEMM 06 -- COARSE 2D VECTORIZED MAT_MUL IMPLEMENTATION
// SGEMM is C = α*(A @ B)+β*C; here α=1, β=0
template <int COARSE_X, int COARSE_Y, int TILE_A_ROWS, int TILE_A_COLS, int TILE_B_COLS>
__global__ void coarse2Dvec_kernel(float *A, float *B, float *C, int M, int N, int K) {
constexpr int num_threads = TILE_A_ROWS * TILE_B_COLS / (COARSE_X * COARSE_Y);
static_assert(num_threads % TILE_A_COLS == 0);
static_assert(num_threads % TILE_B_COLS == 0);
static_assert(TILE_A_COLS % 4 == 0);
static_assert(TILE_B_COLS % 4 == 0);
static_assert(num_threads <= 1024);
assert(M % 4 == 0);
assert(N % 4 == 0);
assert(K % 4 == 0);
const int block_row = blockIdx.y;
const int block_col = blockIdx.x;
const int thread_id = threadIdx.x;
// One block computes the C tile
// C[block_row*TILE_A_ROWS:(block_row+1)*TILE_A_ROWS,
// block_col*TILE_B_COLS:(block_col+1)*TILE_B_COLS].
// A and B are loaded in float4 chunks to reduce the number of global-memory load instructions.
const int a_vec_k = thread_id % (TILE_A_COLS / 4);
const int a_load_row = thread_id / (TILE_A_COLS / 4);
const int b_load_k = thread_id / (TILE_B_COLS / 4);
const int b_vec_col = thread_id % (TILE_B_COLS / 4);
const int a_load_row_stride = num_threads / (TILE_A_COLS / 4);
const int b_load_k_stride = num_threads / (TILE_B_COLS / 4);
// This thread accumulates a COARSE_Y x COARSE_X patch whose top-left corner is
// (c_row_in_tile, c_col_in_tile) inside the block tile.
const int c_row_in_tile = COARSE_Y * (thread_id / (TILE_B_COLS / COARSE_X));
const int c_col_in_tile = COARSE_X * (thread_id % (TILE_B_COLS / COARSE_X));
const int num_tiles = (K + TILE_A_COLS - 1) / TILE_A_COLS;
// For each tile in K:
// sh_A[k_in_tile][row_in_tile] <- A[block_row tile, current K tile]
// sh_B[k_in_tile][col_in_tile] <- B[current K tile, block_col tile]
// sh_A is stored as [k][row] instead of [row][k] so the compute loop can read sh_A[k_tile][row + i]
// directly.
__shared__ float sh_A[TILE_A_COLS][TILE_A_ROWS];
__shared__ float sh_B[TILE_A_COLS][TILE_B_COLS];
float accum[COARSE_Y][COARSE_X] = {0.0f};
float a_frag[COARSE_Y] = {0.0f};
float b_frag[COARSE_X] = {0.0f};
for (int tile = 0; tile < num_tiles; ++tile) {
// Fill sh_A for the current K tile.
// Each thread reads one float4 from
// A[block_row*TILE_A_ROWS + row_in_tile, tile*TILE_A_COLS + 4*a_vec_k : +4]
// and scatters it into sh_A[k_in_tile][row_in_tile].
for (int a_row_base = 0; a_row_base < TILE_A_ROWS; a_row_base += a_load_row_stride) {
const int row_in_tile = a_row_base + a_load_row;
if (block_row * TILE_A_ROWS + row_in_tile < M && tile * TILE_A_COLS + a_vec_k * 4 < K) {
float4 temp_A
= reinterpret_cast<float4 *>(&A[(block_row * TILE_A_ROWS + row_in_tile) * K
+ tile * TILE_A_COLS + a_vec_k * 4])[0];
sh_A[a_vec_k * 4 + 0][row_in_tile] = temp_A.x;
sh_A[a_vec_k * 4 + 1][row_in_tile] = temp_A.y;
sh_A[a_vec_k * 4 + 2][row_in_tile] = temp_A.z;
sh_A[a_vec_k * 4 + 3][row_in_tile] = temp_A.w;
} else {
sh_A[a_vec_k * 4 + 0][row_in_tile] = 0.0f;
sh_A[a_vec_k * 4 + 1][row_in_tile] = 0.0f;
sh_A[a_vec_k * 4 + 2][row_in_tile] = 0.0f;
sh_A[a_vec_k * 4 + 3][row_in_tile] = 0.0f;
}
}
// Fill sh_B for the current K tile.
// Each thread reads one float4 from
// B[tile*TILE_A_COLS + k_in_tile, block_col*TILE_B_COLS + 4*b_vec_col : +4]
// and stores it into sh_B[k_in_tile][col_in_tile].
for (int b_k_base = 0; b_k_base < TILE_A_COLS; b_k_base += b_load_k_stride) {
const int k_in_tile = b_k_base + b_load_k;
if (tile * TILE_A_COLS + k_in_tile < K && block_col * TILE_B_COLS + b_vec_col * 4 < N) {
float4 temp_B
= reinterpret_cast<float4 *>(&B[(tile * TILE_A_COLS + k_in_tile) * N
+ block_col * TILE_B_COLS + b_vec_col * 4])[0];
sh_B[k_in_tile][b_vec_col * 4 + 0] = temp_B.x;
sh_B[k_in_tile][b_vec_col * 4 + 1] = temp_B.y;
sh_B[k_in_tile][b_vec_col * 4 + 2] = temp_B.z;
sh_B[k_in_tile][b_vec_col * 4 + 3] = temp_B.w;
} else {
sh_B[k_in_tile][b_vec_col * 4 + 0] = 0.0f;
sh_B[k_in_tile][b_vec_col * 4 + 1] = 0.0f;
sh_B[k_in_tile][b_vec_col * 4 + 2] = 0.0f;
sh_B[k_in_tile][b_vec_col * 4 + 3] = 0.0f;
}
}
__syncthreads();
// The vectorized loads feed the same register-tiled inner loop as GEMM 05.
for (int k_tile = 0; k_tile < TILE_A_COLS; ++k_tile) {
for (int i = 0; i < COARSE_Y; ++i) { a_frag[i] = sh_A[k_tile][c_row_in_tile + i]; }
for (int i = 0; i < COARSE_X; ++i) { b_frag[i] = sh_B[k_tile][c_col_in_tile + i]; }
for (int row_offset = 0; row_offset < COARSE_Y; ++row_offset) {
for (int col_offset = 0; col_offset < COARSE_X; ++col_offset) {
accum[row_offset][col_offset] += a_frag[row_offset] * b_frag[col_offset];
}
}
}
__syncthreads();
}
// Write back the thread-local COARSE_Y x COARSE_X patch.
for (int row_offset = 0; row_offset < COARSE_Y; ++row_offset) {
for (int col_offset = 0; col_offset < COARSE_X; ++col_offset) {
if (block_row * TILE_A_ROWS + c_row_in_tile + row_offset < M
&& block_col * TILE_B_COLS + c_col_in_tile + col_offset < N) {
C[(block_row * TILE_A_ROWS + c_row_in_tile + row_offset) * N + block_col * TILE_B_COLS
+ c_col_in_tile + col_offset] = accum[row_offset][col_offset];
}
}
}
}
void gemm6(float *A, float *B, float *C, int M, int N, int K) {
// Optimized parameters on RTX 6000 Ada GPU:
const int COARSE_X = 4, COARSE_Y = 8, TILE_A_ROWS = 64, TILE_A_COLS = 16, TILE_B_COLS = 128;
constexpr int num_threads = TILE_A_ROWS * TILE_B_COLS / (COARSE_X * COARSE_Y);
dim3 dim_grid((N + TILE_B_COLS - 1) / TILE_B_COLS, (M + TILE_A_ROWS - 1) / TILE_A_ROWS);
dim3 dim_block(num_threads);
coarse2Dvec_kernel<COARSE_X, COARSE_Y, TILE_A_ROWS, TILE_A_COLS, TILE_B_COLS>
<<<dim_grid, dim_block>>>(A, B, C, M, N, K);
}
共享内存填充与重排⚓︎
在利用共享内存缓存矩阵块时,由于 Shared Memory 物理上被划分为 32 个交错的存储体(Memory Banks),每个 Bank 每个时钟周期只能处理一次单字访问。如果同一个 Warp 中的多个线程同时访问同一个 Bank 中的不同地址,就会引发 Bank Conflict(存储体冲突),导致内存请求被串行化,成倍增加访问延迟。
1. Bank Conflict 的产生⚓︎
假设我们在 Shared Memory 中以普通的二维数组 __shared__ float sh_A[64][32] 存储某块数据。由于 float 占 4 字节,刚好一个跨度为 1 的索引增加对应下一个 Bank。由于列宽恰等于 32,矩阵中同一列的相邻两行元素(例如 sh_A[0][0] 与 sh_A[1][0])将映射到完全相同的 Bank 0。
如果在计算阶段,某一个 Warp 内部的连续线程去读取同一列上的不同行数据,这 32 个地址请求将散落至同一个 Bank 内部排队碰撞,进而触发严重的 32-way Bank Conflict(最高级指令阻塞)。
2. Padding 填充机制⚓︎
优化的最简单直观方法是改变二维数组的内存步长,引入空间填充(Padding)。例如将声明修改为 __shared__ float sh_A[64][32 + 1](即每一行末尾引入一列无效的垫片,打破原来的 32 的整数倍周期):
Padding 错开 Bank 排位示意
当采用原始的 [32] 宽度时,寻址跨度使得每行首元素全都落在同一个 Bank 0 上:
修改为 [33] 宽度(+1 Padding)后,由于每一行多占用了 1 个位置,下一行的起始 Bank 顺延错位偏移:
在这种填充形态下,原本处于逻辑同列的元素 sh_A[0][0] (此归属物理 B_0)、sh_A[1][0] (此归属物理 B_1)、sh_A[2][0] (此归属物理 B_2) 便自然散列到了不同的 Bank 硬件中。当 Warp 发起纵向连续读取请求时,能够实现理论上的无冲突全并行载入。
3. Swizzling 重排设计⚓︎
尽管 Padding 能够高效解决规整行列的读取冲突,但它会额外占用宝贵的 Shared Memory 容量空间。更为高级且工业界常用的做法是采用异或交织(XOR Swizzling)。在存入和读取 Shared Memory 时,借助按位异或运算显式地打乱原有的线性映射:
通过异或变换,同一列内的不同行元素会被强制散列到随机但不重复的逻辑 Bank 编号上。
XOR Swizzling 错开 Bank 排位示意
为了简化说明,假设硬件只有 4 个 Bank,局部矩阵的分块列宽刚好也为 4。
未重排前 (普通二维数组映射),同一列的元素由于周期相同,毫无悬念地全都会掉入同一个 Bank (例如第 0 列全属 B_0):
采用 XOR 重排后,元素的逻辑落点依据 \text{Bank} = \text{row} \oplus \text{col} 发生置换。由于异或可逆且无进位的特性,其散列保障了同一列内的 Bank 编号不会重复:
此时,若一个 Warp 发起对原逻辑分块第 0 列的连续读取,它将并行且独立地拾取底层的 B_0, B_1, B_2, B_3。我们在不消耗任何额外 Padding 开销的前提下,从纯数学逻辑上达成了零碰撞。
这在配合使用 float4 向量化访问时效果尤为关键,因为 128-bit 的存取面临更苛刻的寻址边界对齐问题。Swizzle 提供了一种纯代数重排机制。由于它不再依赖物理填充(无需插入无意义的 Pad 字节),因此能在打破数据位面的冲突对齐同时,最大限度地节省并消除 Shared Memory 的额外空间浪费。
线程块网格重排 (Thread Block Swizzling)⚓︎
“Swizzling” 在 GPU 编程语境下是一个通用术语,指代对坐标或索引进行非线性映射变换。除了上述用于消除共享内存 Bank Conflict 的内部地址重排,在 CUTLASS 等高性能矩阵库中,还会广泛应用一种针对线程块 (Thread Block) 层级的调度 Swizzling 技术,其核心目的是提升 L2 Cache 的缓存命中率 (Cache Hit Rate)。
在执行 GEMM 算子时,如果我们按照默认的一维或基于行优先的二维 Grid 启动 Kernel,相邻启动的 Block 会顺着结果矩阵 C 的行方向长距离推进。这会导致它们在计算时虽能复用矩阵 A 的同一段行分块,但对矩阵 B 的访问往往会在物理内存中产生极大的跳跃跨度(不断加载全新的列分块)。这很容易导致有限的 L2 Cache 快速被冲刷(Cache Eviction),当后续行逻辑开始计算时,往往又需要重新跨越全局内存读取相同的 B 数据。
Thread Block Swizzling 的核心思想:通过对设备内置的 blockIdx 进行位运算变换,将原本在网格中线性伸展的执行顺序“折叠”成二维近邻的局部块(Tile)执行顺序。使得在时间上连续投入执行的 Block 簇,在映射的物理空间上同时贴近,进而能够聚拢复用 A 和 B 的共享缓存。
假设我们通过 API 启动了一个 gridDim 为 (16, 1, 1) 的一维度全卷展网格。为了实现空间局部性,按照 log_tile = 2 (即目标聚合 Tile 维度为 4 \times 4) 施行简单的重排:
Thread Block Swizzling 坐标映射代码
一次性网格执行顺序折叠示意
变换前(基于传统硬件下发的线性推进调度,空间局部性极差):
变换后(依据上面的公式按 4 \times 4 空间局部聚拢后的物理等效分布):
通过这一重载,原本排在底层时间线上第 0,1,2,3 顺位启动的计算任务,被物理上“聚拢”成了一个小方块结构,它们在计算时会集中覆盖 A 和 B 的对应局部领域。这种从一维“长条流水线”到二维“内聚方块”的执行流折叠,最大化避免了 L2 Cache 的无意义震荡,是最终逼近理论 Compute Bound 的关键工程拼图之一。
完整优化 Kernel 源码引用
下面集成了二维分块、寄存器粗化、步长加载机制以及维度防冲突等所有优化手段的通用矩阵乘加源码,也是前述各阶段核心思想的完整组合。
#include <cuda_runtime.h>
#include <array>
#include <chrono>
#include <cmath>
#include <cstdlib>
#include <iomanip>
#include <iostream>
#include <sstream>
#include "assert.h"
namespace {
constexpr std::array<int, 4> kSizes = {128, 256, 512, 1024};
constexpr int kWarmupRuns = 3;
constexpr int kTimedRuns = 5;
struct RunResult {
std::array<double, kSizes.size()> times{};
std::array<double, kSizes.size()> gflops{};
std::array<double, kSizes.size()> bandwidth{};
};
using GemmFn = void (*)(float *, float *, float *, int, int, int);
using MetricValues = std::array<double, kSizes.size()>;
using RunResultMetric = MetricValues RunResult::*;
struct GemmVariant {
const char *name;
GemmFn fn;
};
using VariantList = std::array<GemmVariant, 6>;
using ResultList = std::array<RunResult, VariantList{}.size()>;
struct Gemm6Config {
const char *name;
int coarse_x;
int coarse_y;
int tiles_Arows;
int tiles_Acols;
int tiles_Bcols;
};
constexpr std::array<Gemm6Config, 5> kGemm6Configs = {
{
{"G6 128x128 BK16 8x8", 8, 8, 128, 16, 128},
{"G6 128x64 BK16 8x8", 8, 8, 128, 16, 64},
{"G6 128x128 BK16 8x4", 8, 4, 128, 16, 128},
{"G6 64x128 BK16 4x8", 4, 8, 64, 16, 128},
{"G6 64x64 BK16 4x4", 4, 4, 64, 16, 64},
}
};
using Gemm6SweepResults = std::array<RunResult, kGemm6Configs.size()>;
} // namespace
// GEMM 01 -- NAIVE IMPLEMENTATION
// SGEMM is C = α*(A @ B)+β*C; here α=1, β=0
__global__ void naive_kernel(float *A, float *B, float *C, int M, int N, int K) {
// 2D thread layout: one thread computes one output element C[row, col].
const int row = blockDim.x * blockIdx.x + threadIdx.x;
const int col = blockDim.y * blockIdx.y + threadIdx.y;
if (row < M && col < N) {
float dot_prod = 0;
// Read A[row, 0:K] and B[0:K, col] directly from global memory.
for (int k = 0; k < K; ++k) { dot_prod += A[row * K + k] * B[k * N + col]; }
// Write one output element: C[row, col].
C[row * N + col] = dot_prod;
}
}
void gemm1(float *A, float *B, float *C, int M, int N, int K) {
constexpr int BLOCK_X = 32, BLOCK_Y = 32;
dim3 dim_block(BLOCK_X, BLOCK_Y, 1);
dim3 dim_grid((M + BLOCK_X - 1) / BLOCK_X, (N + BLOCK_Y - 1) / BLOCK_Y, 1);
naive_kernel<<<dim_grid, dim_block>>>(A, B, C, M, N, K);
}
// GEMM 02 -- COALESCED MAT_MUL IMPLEMENTATION
// SGEMM is C = α*(A @ B)+β*C; here α=1, β=0
__global__ void coalesced_kernel(float *A, float *B, float *C, int M, int N, int K) {
// Swap the mapping so warp lanes advance along columns for more coalesced global reads from B and
// writes to C[row, col].
const int col = blockDim.x * blockIdx.x + threadIdx.x;
const int row = blockDim.y * blockIdx.y + threadIdx.y;
if (row < M && col < N) {
float dot_prod = 0;
// Still reads A[row, 0:K] and B[0:K, col] from global memory, but with a more
// cache/transaction-friendly thread layout.
for (int k = 0; k < K; ++k) { dot_prod += A[row * K + k] * B[k * N + col]; }
C[row * N + col] = dot_prod;
}
}
void gemm2(float *A, float *B, float *C, int M, int N, int K) {
constexpr int BLOCK_X = 32, BLOCK_Y = 32;
dim3 dim_block(BLOCK_X, BLOCK_Y, 1);
dim3 dim_grid((M + BLOCK_X - 1) / BLOCK_X, (N + BLOCK_Y - 1) / BLOCK_Y, 1);
coalesced_kernel<<<dim_grid, dim_block>>>(A, B, C, M, N, K);
}
// GEMM 03 -- TILED MAT_MUL IMPLEMENTATION
// SGEMM is C = α*(A @ B)+β*C; here α=1, β=0
template <int TILE_WIDTH>
__global__ void tiled_kernel(float *A, float *B, float *C, int M, int N, int K) {
assert(TILE_WIDTH == blockDim.x);
assert(TILE_WIDTH == blockDim.y);
const int block_x = blockIdx.x;
const int block_y = blockIdx.y;
const int thread_x = threadIdx.x;
const int thread_y = threadIdx.y;
// One thread still owns one output element C[row, col], but the block reuses a TILE_WIDTH x
// TILE_WIDTH patch.
const int row = TILE_WIDTH * block_y + thread_y;
const int col = TILE_WIDTH * block_x + thread_x;
const int num_tiles = (K + TILE_WIDTH - 1) / TILE_WIDTH;
// sh_A holds A[block_y*TILE_WIDTH:(block_y+1)*TILE_WIDTH, tile*TILE_WIDTH:(tile+1)*TILE_WIDTH],
// sh_B holds B[tile*TILE_WIDTH:(tile+1)*TILE_WIDTH, block_x*TILE_WIDTH:(block_x+1)*TILE_WIDTH].
__shared__ float sh_A[TILE_WIDTH][TILE_WIDTH];
__shared__ float sh_B[TILE_WIDTH][TILE_WIDTH];
float dot_prod = 0;
for (int tile = 0; tile < num_tiles; ++tile) {
// Each thread loads one element of A and one element of B into shared memory.
// Boundary checks handle edge cases when M/N/K is not divisible by TILE_WIDTH.
if (row < M && tile * TILE_WIDTH + thread_x < K) {
sh_A[thread_y][thread_x] = A[row * K + tile * TILE_WIDTH + thread_x];
} else {
sh_A[thread_y][thread_x] = 0.0f;
}
if (tile * TILE_WIDTH + thread_y < K && col < N) {
sh_B[thread_y][thread_x] = B[(tile * TILE_WIDTH + thread_y) * N + col];
} else {
sh_B[thread_y][thread_x] = 0.0f;
}
__syncthreads();
// Shared memory turns K-step global loads into tile reuse inside the block.
for (int k_tile = 0; k_tile < TILE_WIDTH; ++k_tile) {
dot_prod += sh_A[thread_y][k_tile] * sh_B[k_tile][thread_x];
}
__syncthreads();
}
if (row < M && col < N) { C[row * N + col] = dot_prod; }
}
void gemm3(float *A, float *B, float *C, int M, int N, int K) {
// Optimized/original parameters: TILE_WIDTH=32.
constexpr int TILE_WIDTH = 32;
dim3 dim_block(TILE_WIDTH, TILE_WIDTH, 1);
dim3 dim_grid((M + TILE_WIDTH - 1) / TILE_WIDTH, (N + TILE_WIDTH - 1) / TILE_WIDTH, 1);
tiled_kernel<TILE_WIDTH><<<dim_grid, dim_block>>>(A, B, C, M, N, K);
}
// GEMM 04 -- COARSE 1D MAT_MUL IMPLEMENTATION
// SGEMM is C = α*(A @ B)+β*C; here α=1, β=0
template <int COARSE_FACTOR, int TILE_A_ROWS, int TILE_A_COLS, int TILE_B_COLS>
__global__ void coarse1D_kernel(float *A, float *B, float *C, int M, int N, int K) {
const int block_x = blockIdx.x;
const int block_y = blockIdx.y;
const int thread_x = threadIdx.x;
// Threads are laid out as a 1D block; each thread loads one A element and one B element into
// shared memory.
const int A_view_y = thread_x / TILE_A_COLS;
const int A_view_x = thread_x % TILE_A_COLS;
const int B_view_y = thread_x / TILE_B_COLS;
const int B_view_x = thread_x % TILE_B_COLS;
// Each thread computes COARSE_FACTOR outputs stacked along rows for the same output column
// C[row:row+COARSE_FACTOR, col].
const int row = TILE_A_ROWS * block_y + COARSE_FACTOR * (thread_x / TILE_B_COLS);
const int col = TILE_B_COLS * block_x + (thread_x % TILE_B_COLS);
const int num_tiles = (K + TILE_A_COLS - 1) / TILE_A_COLS;
// sh_A caches A[block_y*TILE_A_ROWS:(block_y+1)*TILE_A_ROWS,
// tile*TILE_A_COLS:(tile+1)*TILE_A_COLS], sh_B caches B[tile*TILE_A_COLS:(tile+1)*TILE_A_COLS,
// block_x*TILE_B_COLS:(block_x+1)*TILE_B_COLS].
__shared__ float sh_A[TILE_A_ROWS][TILE_A_COLS];
__shared__ float sh_B[TILE_A_COLS][TILE_B_COLS];
float dot_prod[COARSE_FACTOR] = {0.0f};
for (int tile = 0; tile < num_tiles; ++tile) {
if (block_y * TILE_A_ROWS + A_view_y < M && tile * TILE_A_COLS + A_view_x < K) {
sh_A[A_view_y][A_view_x]
= A[(block_y * TILE_A_ROWS + A_view_y) * K + tile * TILE_A_COLS + A_view_x];
} else {
sh_A[A_view_y][A_view_x] = 0.0f;
}
if (tile * TILE_A_COLS + B_view_y < K && block_x * TILE_B_COLS + B_view_x < N) {
sh_B[B_view_y][B_view_x]
= B[(tile * TILE_A_COLS + B_view_y) * N + block_x * TILE_B_COLS + B_view_x];
} else {
sh_B[B_view_y][B_view_x] = 0.0f;
}
__syncthreads();
// Register blocking: reuse one B value across COARSE_FACTOR rows before moving to the next K
// step.
for (int k_tile = 0; k_tile < TILE_A_COLS; ++k_tile) {
const float B_val = sh_B[k_tile][B_view_x];
for (int c = 0; c < COARSE_FACTOR; ++c) {
dot_prod[c] += sh_A[B_view_y * COARSE_FACTOR + c][k_tile] * B_val;
}
}
__syncthreads();
}
for (int c = 0; c < COARSE_FACTOR; ++c) {
if (row + c < M && col < N) { C[(row + c) * N + col] = dot_prod[c]; }
}
}
void gemm4(float *A, float *B, float *C, int M, int N, int K) {
// Optimized/original parameters: COARSE_FACTOR=8, TILE_A_ROWS=64, TILE_A_COLS=8, TILE_B_COLS=64.
constexpr int COARSE_FACTOR = 8;
constexpr int TILE_A_ROWS = 64;
constexpr int TILE_A_COLS = 8;
constexpr int TILE_B_COLS = 64;
dim3 dim_grid((N + TILE_B_COLS - 1) / TILE_B_COLS, (M + TILE_A_ROWS - 1) / TILE_A_ROWS);
dim3 dim_block(TILE_A_ROWS * TILE_B_COLS / COARSE_FACTOR);
coarse1D_kernel<COARSE_FACTOR, TILE_A_ROWS, TILE_A_COLS, TILE_B_COLS>
<<<dim_grid, dim_block>>>(A, B, C, M, N, K);
}
// GEMM 05 -- COARSE 2D MAT_MUL IMPLEMENTATION
// SGEMM is C = α*(A @ B)+β*C; here α=1, β=0
template <int COARSE_X, int COARSE_Y, int TILE_A_ROWS, int TILE_A_COLS, int TILE_B_COLS>
__global__ void coarse2D_kernel(float *A, float *B, float *C, int M, int N, int K) {
constexpr int num_threads = TILE_A_ROWS * TILE_B_COLS / (COARSE_X * COARSE_Y);
static_assert(num_threads % TILE_A_COLS == 0);
static_assert(num_threads % TILE_B_COLS == 0);
const int block_x = blockIdx.x;
const int block_y = blockIdx.y;
const int thread_x = threadIdx.x;
// Linear threads are remapped so each thread helps load tiles and then computes a COARSE_Y x
// COARSE_X output patch.
const int A_view_y = thread_x / TILE_A_COLS;
const int A_view_x = thread_x % TILE_A_COLS;
const int B_view_y = thread_x / TILE_B_COLS;
const int B_view_x = thread_x % TILE_B_COLS;
const int stride_A = num_threads / TILE_A_COLS;
const int stride_B = num_threads / TILE_B_COLS;
const int row = COARSE_Y * (thread_x / (TILE_B_COLS / COARSE_X));
const int col = COARSE_X * (thread_x % (TILE_B_COLS / COARSE_X));
const int num_tiles = (K + TILE_A_COLS - 1) / TILE_A_COLS;
// Shared tiles cover A[block_y*TILE_A_ROWS:(block_y+1)*TILE_A_ROWS,
// tile*TILE_A_COLS:(tile+1)*TILE_A_COLS] and B[tile*TILE_A_COLS:(tile+1)*TILE_A_COLS,
// block_x*TILE_B_COLS:(block_x+1)*TILE_B_COLS].
__shared__ float sh_A[TILE_A_ROWS][TILE_A_COLS];
__shared__ float sh_B[TILE_A_COLS][TILE_B_COLS];
float value[COARSE_Y][COARSE_X] = {0.0f};
float reg_A[COARSE_Y] = {0.0f};
float reg_B[COARSE_X] = {0.0f};
for (int tile = 0; tile < num_tiles; ++tile) {
for (int load_offset = 0; load_offset < TILE_A_ROWS; load_offset += stride_A) {
if (block_y * TILE_A_ROWS + load_offset + A_view_y < M && tile * TILE_A_COLS + A_view_x < K) {
sh_A[load_offset + A_view_y][A_view_x]
= A[(block_y * TILE_A_ROWS + load_offset + A_view_y) * K + tile * TILE_A_COLS
+ A_view_x];
} else {
sh_A[load_offset + A_view_y][A_view_x] = 0.0f;
}
}
for (int load_offset = 0; load_offset < TILE_A_COLS; load_offset += stride_B) {
if (tile * TILE_A_COLS + load_offset + B_view_y < K && block_x * TILE_B_COLS + B_view_x < N) {
sh_B[load_offset + B_view_y][B_view_x] = B[(tile * TILE_A_COLS + B_view_y + load_offset) * N
+ block_x * TILE_B_COLS + B_view_x];
} else {
sh_B[load_offset + B_view_y][B_view_x] = 0.0f;
}
}
__syncthreads();
// Register tiling increases arithmetic intensity: each loaded A/B value is reused across
// multiple outputs.
for (int k_tile = 0; k_tile < TILE_A_COLS; ++k_tile) {
for (int i = 0; i < COARSE_Y; ++i) { reg_A[i] = sh_A[row + i][k_tile]; }
for (int i = 0; i < COARSE_X; ++i) { reg_B[i] = sh_B[k_tile][col + i]; }
for (int row_offset = 0; row_offset < COARSE_Y; ++row_offset) {
for (int col_offset = 0; col_offset < COARSE_X; ++col_offset) {
value[row_offset][col_offset] += reg_A[row_offset] * reg_B[col_offset];
}
}
}
__syncthreads();
}
// Each thread writes back its COARSE_Y x COARSE_X patch into
// C[block_y*TILE_A_ROWS+row:block_y*TILE_A_ROWS+row+COARSE_Y,
// block_x*TILE_B_COLS+col:block_x*TILE_B_COLS+col+COARSE_X].
for (int row_offset = 0; row_offset < COARSE_Y; ++row_offset) {
for (int col_offset = 0; col_offset < COARSE_X; ++col_offset) {
if (block_y * TILE_A_ROWS + row + row_offset < M
&& block_x * TILE_B_COLS + col + col_offset < N) {
C[(block_y * TILE_A_ROWS + row + row_offset) * N + block_x * TILE_B_COLS + col + col_offset]
= value[row_offset][col_offset];
}
}
}
}
void gemm5(float *A, float *B, float *C, int M, int N, int K) {
// Original parameters before templating: COARSE_X=8, COARSE_Y=8, TILE_A_ROWS=128, TILE_A_COLS=16,
// TILE_B_COLS=128. Optimized parameters on this machine: COARSE_X=4, COARSE_Y=8, TILE_A_ROWS=64,
// TILE_A_COLS=16, TILE_B_COLS=128.
constexpr int COARSE_X = 4;
constexpr int COARSE_Y = 8;
constexpr int TILE_A_ROWS = 64;
constexpr int TILE_A_COLS = 16;
constexpr int TILE_B_COLS = 128;
dim3 dim_grid((N + TILE_B_COLS - 1) / TILE_B_COLS, (M + TILE_A_ROWS - 1) / TILE_A_ROWS);
dim3 dim_block(TILE_A_ROWS * TILE_B_COLS / (COARSE_X * COARSE_Y));
coarse2D_kernel<COARSE_X, COARSE_Y, TILE_A_ROWS, TILE_A_COLS, TILE_B_COLS>
<<<dim_grid, dim_block>>>(A, B, C, M, N, K);
}
template <int COARSE_X, int COARSE_Y, int TILE_A_ROWS, int TILE_A_COLS, int TILE_B_COLS>
__global__ void coarse2Dvec_kernel(float *A, float *B, float *C, int M, int N, int K) {
constexpr int num_threads = TILE_A_ROWS * TILE_B_COLS / (COARSE_X * COARSE_Y);
static_assert(num_threads % TILE_A_COLS == 0);
static_assert(num_threads % TILE_B_COLS == 0);
static_assert(TILE_A_COLS % 4 == 0);
static_assert(TILE_B_COLS % 4 == 0);
static_assert(num_threads <= 1024);
assert(M % 4 == 0);
assert(N % 4 == 0);
assert(K % 4 == 0);
const int block_y = blockIdx.y;
const int block_x = blockIdx.x;
const int thread_x = threadIdx.x;
// The block still computes a TILE_A_ROWS x TILE_B_COLS patch of C, but loads A/B in float4 chunks
// to reduce instruction count and improve global-memory bandwidth use.
const int A_view_x = thread_x % (TILE_A_COLS / 4);
const int B_view_y = thread_x / (TILE_B_COLS / 4);
const int B_view_x = thread_x % (TILE_B_COLS / 4);
const int A_view_y = thread_x / (TILE_A_COLS / 4);
const int stride_A = num_threads / (TILE_A_COLS / 4);
const int stride_B = num_threads / (TILE_B_COLS / 4);
const int row = COARSE_Y * (thread_x / (TILE_B_COLS / COARSE_X));
const int col = COARSE_X * (thread_x % (TILE_B_COLS / COARSE_X));
const int num_tiles = (K + TILE_A_COLS - 1) / TILE_A_COLS;
// sh_A stores A[block_y*TILE_A_ROWS:(block_y+1)*TILE_A_ROWS,
// tile*TILE_A_COLS:(tile+1)*TILE_A_COLS] in a transposed shared-memory layout so compute reads
// become more register-friendly; sh_B stores B[tile*TILE_A_COLS:(tile+1)*TILE_A_COLS,
// block_x*TILE_B_COLS:(block_x+1)*TILE_B_COLS] directly.
__shared__ float sh_A[TILE_A_COLS][TILE_A_ROWS];
__shared__ float sh_B[TILE_A_COLS][TILE_B_COLS];
float value[COARSE_Y][COARSE_X] = {0.0f};
float reg_A[COARSE_Y] = {0.0f};
float reg_B[COARSE_X] = {0.0f};
for (int tile = 0; tile < num_tiles; ++tile) {
for (int load_offset = 0; load_offset < TILE_A_ROWS; load_offset += stride_A) {
if (block_y * TILE_A_ROWS + load_offset + A_view_y < M
&& tile * TILE_A_COLS + A_view_x * 4 < K) {
// Read A[row, k:k+4] as one float4 from global memory, then scatter it into
// sh_A[tile*TILE_A_COLS+A_view_x*4:tile*TILE_A_COLS+A_view_x*4+4,
// block_y*TILE_A_ROWS+load_offset+A_view_y].
float4 temp_A
= reinterpret_cast<float4 *>(&A[(block_y * TILE_A_ROWS + load_offset + A_view_y) * K
+ tile * TILE_A_COLS + A_view_x * 4])[0];
sh_A[A_view_x * 4 + 0][load_offset + A_view_y] = temp_A.x;
sh_A[A_view_x * 4 + 1][load_offset + A_view_y] = temp_A.y;
sh_A[A_view_x * 4 + 2][load_offset + A_view_y] = temp_A.z;
sh_A[A_view_x * 4 + 3][load_offset + A_view_y] = temp_A.w;
} else {
sh_A[A_view_x * 4 + 0][load_offset + A_view_y] = 0.0f;
sh_A[A_view_x * 4 + 1][load_offset + A_view_y] = 0.0f;
sh_A[A_view_x * 4 + 2][load_offset + A_view_y] = 0.0f;
sh_A[A_view_x * 4 + 3][load_offset + A_view_y] = 0.0f;
}
}
for (int load_offset = 0; load_offset < TILE_A_COLS; load_offset += stride_B) {
if (tile * TILE_A_COLS + B_view_y + load_offset < K
&& block_x * TILE_B_COLS + B_view_x * 4 < N) {
// Read B[k, col:col+4] as one float4 from global memory, then place it into
// sh_B[tile*TILE_A_COLS+B_view_y+load_offset,
// block_x*TILE_B_COLS+B_view_x*4:block_x*TILE_B_COLS+B_view_x*4+4].
float4 temp_B
= reinterpret_cast<float4 *>(&B[(tile * TILE_A_COLS + B_view_y + load_offset) * N
+ block_x * TILE_B_COLS + B_view_x * 4])[0];
sh_B[B_view_y + load_offset][B_view_x * 4 + 0] = temp_B.x;
sh_B[B_view_y + load_offset][B_view_x * 4 + 1] = temp_B.y;
sh_B[B_view_y + load_offset][B_view_x * 4 + 2] = temp_B.z;
sh_B[B_view_y + load_offset][B_view_x * 4 + 3] = temp_B.w;
} else {
sh_B[B_view_y + load_offset][B_view_x * 4 + 0] = 0.0f;
sh_B[B_view_y + load_offset][B_view_x * 4 + 1] = 0.0f;
sh_B[B_view_y + load_offset][B_view_x * 4 + 2] = 0.0f;
sh_B[B_view_y + load_offset][B_view_x * 4 + 3] = 0.0f;
}
}
__syncthreads();
// Vectorized loads feed the same register-tiled inner loop as GEMM 05, but with less load
// overhead.
for (int k_tile = 0; k_tile < TILE_A_COLS; ++k_tile) {
for (int i = 0; i < COARSE_Y; ++i) { reg_A[i] = sh_A[k_tile][row + i]; }
for (int i = 0; i < COARSE_X; ++i) { reg_B[i] = sh_B[k_tile][col + i]; }
for (int row_offset = 0; row_offset < COARSE_Y; ++row_offset) {
for (int col_offset = 0; col_offset < COARSE_X; ++col_offset) {
value[row_offset][col_offset] += reg_A[row_offset] * reg_B[col_offset];
}
}
}
__syncthreads();
}
for (int row_offset = 0; row_offset < COARSE_Y; ++row_offset) {
for (int col_offset = 0; col_offset < COARSE_X; ++col_offset) {
if (block_y * TILE_A_ROWS + row + row_offset < M
&& block_x * TILE_B_COLS + col + col_offset < N) {
C[(block_y * TILE_A_ROWS + row + row_offset) * N + block_x * TILE_B_COLS + col + col_offset]
= value[row_offset][col_offset];
}
}
}
}
void gemm6(float *A, float *B, float *C, int M, int N, int K) {
// Optimized parameters on this machine: COARSE_X=4, COARSE_Y=8, TILE_A_ROWS=64, TILE_A_COLS=16,
// TILE_B_COLS=128. Original parameters before templating: COARSE_X=8, COARSE_Y=8,
// TILE_A_ROWS=128, TILE_A_COLS=16, TILE_B_COLS=128.
const int COARSE_X = 4, COARSE_Y = 8, TILE_A_ROWS = 64, TILE_A_COLS = 16, TILE_B_COLS = 128;
constexpr int num_threads = TILE_A_ROWS * TILE_B_COLS / (COARSE_X * COARSE_Y);
dim3 dim_grid((N + TILE_B_COLS - 1) / TILE_B_COLS, (M + TILE_A_ROWS - 1) / TILE_A_ROWS);
dim3 dim_block(num_threads);
coarse2Dvec_kernel<COARSE_X, COARSE_Y, TILE_A_ROWS, TILE_A_COLS, TILE_B_COLS>
<<<dim_grid, dim_block>>>(A, B, C, M, N, K);
}
template <int COARSE_X, int COARSE_Y, int TILE_A_ROWS, int TILE_A_COLS, int TILE_B_COLS>
GemmFn make_gemm6_config() {
return +[](float *A, float *B, float *C, int M, int N, int K) {
constexpr int num_threads = TILE_A_ROWS * TILE_B_COLS / (COARSE_X * COARSE_Y);
dim3 dim_grid((N + TILE_B_COLS - 1) / TILE_B_COLS, (M + TILE_A_ROWS - 1) / TILE_A_ROWS);
dim3 dim_block(num_threads);
coarse2Dvec_kernel<COARSE_X, COARSE_Y, TILE_A_ROWS, TILE_A_COLS, TILE_B_COLS>
<<<dim_grid, dim_block>>>(A, B, C, M, N, K);
};
}
using Gemm6ConfigLauncher = GemmFn (*)(void);
GemmFn gemm6_config_fn(std::size_t index) {
constexpr std::array<Gemm6ConfigLauncher, kGemm6Configs.size()> kLaunchers = {
{
make_gemm6_config<8, 8, 128, 16, 128>,
make_gemm6_config<8, 8, 128, 16, 64>,
make_gemm6_config<8, 4, 128, 16, 128>,
make_gemm6_config<4, 8, 64, 16, 128>,
make_gemm6_config<4, 4, 64, 16, 64>,
}
};
return kLaunchers[index]();
}
RunResult run_and_verify(const char *name, GemmFn fn) {
RunResult result{};
std::cout << name << "\n";
std::cout << "Verification Results:\n";
std::cout << "Warmup runs: " << kWarmupRuns << ", Timed runs: " << kTimedRuns << " (average)\n";
for (std::size_t index = 0; index < kSizes.size(); ++index) {
const int size = kSizes[index];
float *A_device, *B_device, *C_device;
cudaMalloc((void **)&A_device, size * size * sizeof(float));
cudaMalloc((void **)&B_device, size * size * sizeof(float));
cudaMalloc((void **)&C_device, size * size * sizeof(float));
float *A_host = new float[size * size];
float *B_host = new float[size * size];
float *C_device_host = new float[size * size];
float *C_reference = new float[size * size];
srand(42);
for (int j = 0; j < size * size; ++j) {
A_host[j] = static_cast<float>(rand()) / RAND_MAX;
B_host[j] = static_cast<float>(rand()) / RAND_MAX;
}
cudaMemcpy(A_device, A_host, size * size * sizeof(float), cudaMemcpyHostToDevice);
cudaMemcpy(B_device, B_host, size * size * sizeof(float), cudaMemcpyHostToDevice);
for (int warmup = 0; warmup < kWarmupRuns; ++warmup) {
fn(A_device, B_device, C_device, size, size, size);
}
cudaDeviceSynchronize();
double total_time = 0.0;
for (int run = 0; run < kTimedRuns; ++run) {
auto start = std::chrono::high_resolution_clock::now();
fn(A_device, B_device, C_device, size, size, size);
cudaDeviceSynchronize();
auto end = std::chrono::high_resolution_clock::now();
std::chrono::duration<double> elapsed = end - start;
total_time += elapsed.count();
}
result.times[index] = total_time / kTimedRuns;
const double flop_count = 2.0 * size * size * size;
result.gflops[index] = flop_count / (1e9 * result.times[index]);
cudaMemcpy(C_device_host, C_device, size * size * sizeof(float), cudaMemcpyDeviceToHost);
const double bytes_moved = 3.0 * size * size * sizeof(float);
result.bandwidth[index]
= (result.times[index] > 0) ? (bytes_moved / result.times[index] / 1e8) : 0;
for (int i = 0; i < size; ++i) {
for (int j = 0; j < size; ++j) {
float sum = 0;
for (int k = 0; k < size; ++k) { sum += A_host[i * size + k] * B_host[k * size + j]; }
C_reference[i * size + j] = sum;
}
}
bool correct = true;
for (int i = 0; i < size * size; ++i) {
if (fabs(C_reference[i] - C_device_host[i]) > 1e-4) {
correct = false;
std::cout << "Verification failed at index " << i << ": Host=" << C_reference[i]
<< ", Device=" << C_device_host[i] << std::endl;
break;
}
}
std::cout << size << "x" << size << " matrix: ";
if (correct) {
std::cout << "\033[32mVerification Successful\033[0m\n";
} else {
std::cout << "\033[31mVerification Failed\033[0m\n";
}
cudaFree(A_device);
cudaFree(B_device);
cudaFree(C_device);
delete[] A_host;
delete[] B_host;
delete[] C_device_host;
delete[] C_reference;
}
std::cout << "\n";
return result;
}
template <std::size_t N>
void print_metric_table(const std::array<GemmVariant, N> &variants,
const std::array<RunResult, N> &results, const char *metric_name,
RunResultMetric metric) {
constexpr int kLabelWidth = 18;
constexpr int kValueWidth = 22;
std::cout << "-----------------------------------------------------------------------------------"
"--------------------"
"-------\n";
std::cout << std::left << std::setw(kLabelWidth) << metric_name;
for (int size : kSizes) { std::cout << std::right << std::setw(kValueWidth) << size; }
std::cout << "\n---------------------------------------------------------------------------------"
"--------------------"
"---------\n";
for (std::size_t variant_index = 0; variant_index < variants.size(); ++variant_index) {
std::cout << std::left << std::setw(kLabelWidth) << variants[variant_index].name;
const auto &values = results[variant_index].*metric;
for (std::size_t size_index = 0; size_index < values.size(); ++size_index) {
std::ostringstream cell;
const double value = values[size_index];
if (metric == &RunResult::times) {
cell << std::fixed << std::setprecision(3) << (value * 1e3);
} else {
cell << std::fixed << std::setprecision(3) << value;
}
std::cout << std::right << std::setw(kValueWidth) << cell.str();
}
std::cout << "\n";
}
std::cout << "-----------------------------------------------------------------------------------"
"--------------------"
"-------\n\n";
}
template <std::size_t N>
void print_speedup_table(const std::array<GemmVariant, N> &variants,
const std::array<RunResult, N> &results) {
constexpr int kLabelWidth = 18;
constexpr int kValueWidth = 22;
std::cout << "-----------------------------------------------------------------------------------"
"--------------------"
"-------\n";
std::cout << std::left << std::setw(kLabelWidth) << "Speedup (Time)";
for (int size : kSizes) { std::cout << std::right << std::setw(kValueWidth) << size; }
std::cout << "\n---------------------------------------------------------------------------------"
"--------------------"
"---------\n";
for (std::size_t variant_index = 0; variant_index < variants.size(); ++variant_index) {
std::cout << std::left << std::setw(kLabelWidth) << variants[variant_index].name;
for (std::size_t size_index = 0; size_index < kSizes.size(); ++size_index) {
double step_speedup = 1.0;
double cumulative_speedup = 1.0;
const double time_value = results[variant_index].times[size_index];
if (variant_index > 0 && time_value != 0.0) {
step_speedup = results[variant_index - 1].times[size_index] / time_value;
}
if (time_value != 0.0) { cumulative_speedup = results[0].times[size_index] / time_value; }
std::ostringstream cell;
cell << std::fixed << std::setprecision(2) << step_speedup << "x/" << cumulative_speedup
<< "x";
std::cout << std::right << std::setw(kValueWidth) << cell.str();
}
std::cout << "\n";
}
std::cout << "-----------------------------------------------------------------------------------"
"--------------------"
"-------\n\n";
}
template <std::size_t N>
void print_gemm6_sweep_summary(const std::array<Gemm6Config, N> &configs,
const std::array<RunResult, N> &results) {
constexpr int kNameWidth = 22;
constexpr int kColWidth = 18;
constexpr std::size_t kSummarySizeIndex = kSizes.size() - 1;
std::size_t best_index = 0;
for (std::size_t i = 1; i < configs.size(); ++i) {
if (results[i].times[kSummarySizeIndex] < results[best_index].times[kSummarySizeIndex]) {
best_index = i;
}
}
std::cout << "GEMM 06 Sweep (ranked by 1024x1024 time)\n";
std::cout << "-----------------------------------------------------------------------------------"
"-----------\n";
std::cout << std::left << std::setw(kNameWidth) << "Config" << std::right << std::setw(kColWidth)
<< "1024 ms" << std::setw(kColWidth) << "1024 GFLOPS" << std::setw(kColWidth)
<< "vs base"
<< "\n";
std::cout << "-----------------------------------------------------------------------------------"
"-----------\n";
const double baseline_time = results[0].times[kSummarySizeIndex];
for (std::size_t i = 0; i < configs.size(); ++i) {
const double time_ms = results[i].times[kSummarySizeIndex] * 1e3;
const double speedup = (results[i].times[kSummarySizeIndex] != 0.0)
? baseline_time / results[i].times[kSummarySizeIndex]
: 1.0;
std::ostringstream speedup_cell;
speedup_cell << std::fixed << std::setprecision(2) << speedup << "x";
std::cout << std::left << std::setw(kNameWidth) << configs[i].name << std::right
<< std::setw(kColWidth) << std::fixed << std::setprecision(3) << time_ms
<< std::setw(kColWidth) << std::fixed << std::setprecision(3)
<< results[i].gflops[kSummarySizeIndex] << std::setw(kColWidth) << speedup_cell.str()
<< "\n";
}
std::cout << "-----------------------------------------------------------------------------------"
"-----------\n";
std::cout << "Best GEMM 06 config: " << configs[best_index].name << " [" << std::fixed
<< std::setprecision(3) << results[best_index].times[kSummarySizeIndex] * 1e3 << " ms, "
<< results[best_index].gflops[kSummarySizeIndex] << " GFLOPS at 1024x1024]\n\n";
}
int main() {
const VariantList variants = {
{
{"GEMM 01", gemm1},
{"GEMM 02", gemm2},
{"GEMM 03", gemm3},
{"GEMM 04", gemm4},
{"GEMM 05", gemm5},
{"GEMM 06", gemm6},
}
};
ResultList results{};
for (std::size_t i = 0; i < variants.size(); ++i) {
results[i] = run_and_verify(variants[i].name, variants[i].fn);
}
std::cout << "Final Summary\n\n";
print_metric_table(variants, results, "Time (ms)", &RunResult::times);
print_speedup_table(variants, results);
print_metric_table(variants, results, "GFLOPS", &RunResult::gflops);
print_metric_table(variants, results, "Bandwidth (GB/s)", &RunResult::bandwidth);
Gemm6SweepResults gemm6_sweep_results{};
for (std::size_t i = 0; i < kGemm6Configs.size(); ++i) {
gemm6_sweep_results[i] = run_and_verify(kGemm6Configs[i].name, gemm6_config_fn(i));
}
print_gemm6_sweep_summary(kGemm6Configs, gemm6_sweep_results);
return 0;
}
性能评测⚓︎
性能评测 (RTX 6000)
在 NVIDIA RTX 6000 Ada Generation GPU 上对逐步优化的 Kernel 进行了性能测试。测试数据包含了矩阵尺寸从 128x128 到 1024x1024 的耗时、加速比、计算吞吐 (GFLOPS) 以及访存带宽 (GB/s),并且都通过了数值验证。
耗时与加速比⚓︎
所有时间数据为预热 3 次后,重复执行 5 次的平均值 (毫秒)。可以看到在 1024x1024 大小下,性能获得了极大的提升。
| Kernel | 128x128 (ms) | 256x256 (ms) | 512x512 (ms) | 1024x1024 (ms) | 相对 Base 加速比 (以 1024 计) |
|---|---|---|---|---|---|
| GEMM 01 (Naive) | 0.062 | 0.116 | 0.444 | 3.515 | 1.00x |
| GEMM 02 (Coalesced) | 0.013 | 0.019 | 0.060 | 0.436 | 8.07x |
| GEMM 03 (Shared Mem) | 0.011 | 0.016 | 0.049 | 0.344 | 10.21x |
| GEMM 04 (1D Reg) | 0.017 | 0.024 | 0.043 | 0.129 | 27.21x |
| GEMM 05 (2D Reg) | 0.019 | 0.032 | 0.059 | 0.113 | 30.99x |
| GEMM 06 (Vectorized) | 0.018 | 0.023 | 0.041 | 0.079 | 44.47x |
计算吞吐与全局带宽⚓︎
计算吞吐 (GFLOPS) 表示设备每秒执行的浮点运算次数。利用更高效的寄存器重用与向量化内存加载,GFLOPS 有了质的飞跃。
| Kernel | 128 GFLOPS | 256 GFLOPS | 512 GFLOPS | 1024 GFLOPS | 带宽 (GB/s, 1024) |
|---|---|---|---|---|---|
| GEMM 01 | 67.821 | 289.091 | 603.943 | 610.994 | 35.800 |
| GEMM 02 | 327.578 | 1740.754 | 4453.926 | 4929.157 | 288.818 |
| GEMM 03 | 391.625 | 2121.040 | 5522.500 | 6237.166 | 365.459 |
| GEMM 04 | 246.930 | 1401.512 | 6308.202 | 16624.659 | 974.101 |
| GEMM 05 | 217.211 | 1035.317 | 4582.577 | 18931.770 | 1109.283 |
| GEMM 06 | 239.540 | 1430.063 | 6537.066 | 27171.918 | 1592.105 |
注:上述测试中,较小尺寸 (如 128x128) 由于并行度未能占满整个设备,吞吐偏低;大尺寸 (1024x1024) 能够更好地展现硬件执行密集型计算的潜力。
块大小与寄存器分配超参搜索⚓︎
针对二维分块及向量化版本 (gemm6),在 1024 \times 1024 矩阵尺寸下对 TILE_A_ROWS (BM), TILE_B_COLS (BN), TILE_A_COLS (BK) 以及 COARSE_Y (TM), COARSE_X (TN) 进行了网格搜索,最优配置结果如下:
| 配置参数 (BM x BN / BK / TM x TN) | 1024x1024 耗时 (ms) | 计算吞吐 (GFLOPS) | 相对 Base 加速比 |
|---|---|---|---|
| 64x64, BK=16, 4x4 (最优) | 0.077 | 27968.873 | 1.94x (基准为 128x128/8x8) |
| 64x128, BK=16, 4x8 | 0.079 | 27151.992 | 1.88x |
| 128x64, BK=16, 8x8 | 0.119 | 18024.149 | 1.25x |
| 128x128, BK=16, 8x8 | 0.149 | 14448.676 | 1.00x |
| 128x128, BK=16, 8x4 | 0.170 | 12615.915 | 0.87x |
实验表明,不同的线程块配置会严重影响设备的占有率 (Occupancy) 与寄存器溢出 (Register Spilling) 的情况,进而影响实际计算吞吐。最佳的 64x64, BK=16, 4x4 配置兼顾了合理的并行度与寄存器负载均衡。
扩展与工程选型⚓︎
综合考量数据复用水平、实现复杂度以及对底层 Tensor Core 特性的支持,以下是一级工程落地选型的对比参考表:
| 开发落地方案 | 数据复用水平 | 工程实现复杂度 | 算力单元 (Tensor Core) 调度 | 适用场景 |
|---|---|---|---|---|
| Naive GEMM | 极低 | 极低 (无分块及共享存储逻辑) | 不可调用 | 仅用于验证基准线、底层索引原型推断 |
| Tiled GEMM | 较高 (依赖 Tiling 结构及共享内存/寄存器模型) | 中等 (需构建与维护复杂指针、Bank 及分块布局逻辑) | 可选择性配合 | 特定计算框架定制 kernel、深度介入缓存管理及共享内存计算时 |
| WMMA | 极高 | 较高 (包含基于 Fragment 数据形态和协同 API 的编写) | 原生利用 | 针对特定 Tile 切片要求与架构绑定的高吞吐算子编写 |
| cuBLAS / cuBLASLt | 极高 | 低 | 原生/自动最优化利用 | 计算框架底层基础推断及模型训练主力路径、工业通用落地需求 |
在完整的 GEMM 算子落地阶段,除了手写上述的标量与寄存器组合,通常还需要引入硬件级的计算加速结构与底层优化的矩阵库。
Tensor Core 与 WMMA⚓︎
现代 NVIDIA GPU 架构设计了专门负责矩阵计算的硬件单元 Tensor Core,其浮点吞吐上限远高于传统的 CUDA Core。在代码层面调用 Tensor Core 可以选用 WMMA(Warp Matrix Multiply Accumulate)API,其提供了 Warp 级别的矩阵乘加接口,将一个 Warp 组织成 Tensor Core 友好的小矩阵计算单元。
- Fragment 数据结构:通过定义
wmma::matrix_a、wmma::matrix_b与wmma::accumulator类型的 Fragment,将分块数据加载到能够使用 Tensor Core 的寄存器簇内。 - 协同执行:典型流程是先利用
wmma::load_matrix_sync将矩阵 Tile 装载到 Fragment,再执行wmma::mma_sync完成以 Warp 为单位的数据内积运算,最后利用wmma::store_matrix_sync将 Accumulator 写回内存。
代码示例:WMMA 结构骨架
using namespace nvcuda;
__global__ void wmma_gemm(const half* A, const half* B, float* C) {
wmma::fragment<wmma::matrix_a, 16, 16, 16, half, wmma::row_major> a_frag;
wmma::fragment<wmma::matrix_b, 16, 16, 16, half, wmma::col_major> b_frag;
wmma::fragment<wmma::accumulator, 16, 16, 16, float> c_frag;
wmma::fill_fragment(c_frag, 0.0f);
wmma::load_matrix_sync(a_frag, A, 16);
wmma::load_matrix_sync(b_frag, B, 16);
wmma::mma_sync(c_frag, a_frag, b_frag, c_frag);
wmma::store_matrix_sync(C, c_frag, 16, wmma::mem_row_major);
}
此路径能带来极高的加速上限,但也伴随着更为严格的使用边界。Tile 形状和数据类型受支持的矩阵形态限制,数据布局和对齐要求更严格,手写 WMMA Kernel 的复杂度远高于普通 GEMM。因此,许多工程场景优先选择 cuBLAS 或 CUTLASS,而 WMMA 更适合作为定制 Kernel 的专项极限优化手段。
cuBLAS 工程接口⚓︎
由于手写极速 GEMM 必须应对特定硬件架构的 Bank 结构、配置占有率策略及底层的指令交错,工业级计算默认交由平台专业库(如 cuBLAS 或 CUTLASS)进行调度。除了内置的 Tiling、Coalescing 与硬件加速机制,库函数还提供了灵活的张量布局与批量处理接口。
Leading Dimension (lda, ldb, ldc)⚓︎
在 API 调用中,lda/ldb/ldc 表征矩阵在物理存储上相邻“主方向”元素的跨度(Leading Dimension)。
当逻辑矩阵取自更大张量的子局部,或者实际物理布局存在 Padding 时,逻辑属性下的行列数与内存地址的真实跨距并不同。ld 提供了准确表达“内存里到底隔了多少距离”的手段。若相关参数配置错误,计算必定由于位移偏差产生灾难性错误。
数值示例:带有 Padding 扩充的行主序矩阵
假设逻辑上我们需要处理或者提取一个 2 \times 3 的行主序小矩阵:
在理想与紧凑的情况下,它在物理内存中的排布为:[1, 2, 3, 4, 5, 6],此时它的主方向跨度依然是 3。
但是,考虑到对齐(如 float4 加载约束)或者防止 Bank Conflict 进行的 Padding 处理,其在物理内存层面每行实际按 4 个元素存储:
此状态下对应的内存形为:[1, 2, 3, pad, 4, 5, 6, pad]。
此时该矩阵的逻辑列数(参与计算用到的维度参数 N 或 K)仍是 3;但其行主序的实际跨度是 4。对于这段在内存真实排布的数据,传递 API 时的 lda 的真实含义应定为 4。
行列主序映射与转置⚓︎
cuBLAS 遵循 Fortran 风格,默认将输入按列主序处理。但许多现代 C/C++ 与深度学习框架习惯行主序布局。处理时的经典手法是不在内存中直接执行转置(造成额外开销),而是借助矩阵恒等式 (AB)^T = B^T A^T 完成视图重组。
假设有两个行主序矩阵求 C_{2 \times 4} = A_{2 \times 3} \times B_{3 \times 4}。 由于将这三块行主序内存交由 cuBLAS 后自动获得列主序视角的 C_{4 \times 2}^T = B_{4 \times 3}^T \cdot A_{3 \times 2}^T。因此真正的常见调用策略是在参数上优先传 B,再传 A,从而达成物理存储上等同的内存落盘效果,既保持了语义又规避了数据硬转置的延迟代价。
行主序的换位映射示意 (避免硬转置)
目标逻辑运算是求取行排布的 C_{2 \times 4} = A_{2 \times 3} \times B_{3 \times 4}:
当默认接受列主序规则的 cuBLAS 收到底层连续的一维内存缓冲后,它实际上将其理解为了对它们进行了转置的排列!为了避免在 CPU 或 GPU 之前对上面的源数据执行低效且繁琐真实的内存拷贝调整,我们转而利用 B^T_{4 \times 3} \cdot A^T_{3 \times 2} 即会获得 C_{4 \times 2}^T:
我们可以观察等号左边它认为算出来且列状堆叠落盘的 C^T_{4 \times 2}。此时将其平铺读出来:[C00, C01, C02, C03, C10, C11, C12, C13],这简直跟我们一开始所期待的以行主序铺排存储的目标结果矩阵 C_{2 \times 4} 一模一样。 通过在 API 中按顺序先传入 B 指针,再传 A 指针,在不挪动任何字节的基础上,即可完美取得正确结果。
Batched 执行与混合精度⚓︎
对于深层网络,常见有大量的相同形状子矩阵运算(如多头注意力机制、独立的样本组)。连续多次调用 cuBLASGemm 将导致巨大的 Kernel Launch 开销。
cublasGemmStridedBatched接口允许提交一组 GEMM 任务。用strideA/strideB/strideC告知相邻子矩阵批次的距离,实现合并 Launch 提速。cublasGemmEx提供了灵活的混合精度支持。允许输入选用FP16/BF16而内部累加寄存使用FP32数据流,兼顾了提升模型训练吞吐量、优化 Tensor Core 负载并防止深层算子精度溢出的各项工程需求。