.. |
attention
|
4e71bd1d12
feat: add PagedAttention V2 kernels (#76)
|
1 yıl önce |
quantization
|
ce5e2332ea
fix: launch AWQ kernels on the current CUDAStream (#75)
|
1 yıl önce |
activation.cpp
|
32844c1522
add GELU kernels and remove compile bloat
|
1 yıl önce |
activation_kernels.cu
|
3d72f05c7b
feat: flattened 1D tensor -> 2D tensor (#85)
|
1 yıl önce |
attention.cpp
|
4e71bd1d12
feat: add PagedAttention V2 kernels (#76)
|
1 yıl önce |
cache.cpp
|
081545bde6
fix: various CUDA kernel tweaks
|
1 yıl önce |
cache_kernels.cu
|
3d72f05c7b
feat: flattened 1D tensor -> 2D tensor (#85)
|
1 yıl önce |
cuda_utils.cpp
|
75c27d3e65
massive overhaul
|
1 yıl önce |
cuda_utils_kernels.cu
|
75c27d3e65
massive overhaul
|
1 yıl önce |
dispatch_utils.h
|
32844c1522
add GELU kernels and remove compile bloat
|
1 yıl önce |
layernorm.cpp
|
081545bde6
fix: various CUDA kernel tweaks
|
1 yıl önce |
layernorm_kernels.cu
|
3d72f05c7b
feat: flattened 1D tensor -> 2D tensor (#85)
|
1 yıl önce |
pos_encoding.cpp
|
45f6d9f923
initial refactor commit
|
1 yıl önce |
pos_encoding_kernels.cu
|
3d72f05c7b
feat: flattened 1D tensor -> 2D tensor (#85)
|
1 yıl önce |
quantization.cpp
|
0495c50a3e
GPTQ+exllama support (#21)
|
1 yıl önce |
reduction.cuh
|
081545bde6
fix: various CUDA kernel tweaks
|
1 yıl önce |