.. |
attention
|
4e71bd1d12
feat: add PagedAttention V2 kernels (#76)
|
hace 1 año |
quantization
|
887e03669a
feat: add exllamav2 for GPTQ (#99)
|
hace 1 año |
activation.cpp
|
32844c1522
add GELU kernels and remove compile bloat
|
hace 1 año |
activation_kernels.cu
|
3d72f05c7b
feat: flattened 1D tensor -> 2D tensor (#85)
|
hace 1 año |
attention.cpp
|
4e71bd1d12
feat: add PagedAttention V2 kernels (#76)
|
hace 1 año |
cache.cpp
|
081545bde6
fix: various CUDA kernel tweaks
|
hace 1 año |
cache_kernels.cu
|
3d72f05c7b
feat: flattened 1D tensor -> 2D tensor (#85)
|
hace 1 año |
cuda_utils.cpp
|
75c27d3e65
massive overhaul
|
hace 1 año |
cuda_utils_kernels.cu
|
75c27d3e65
massive overhaul
|
hace 1 año |
dispatch_utils.h
|
32844c1522
add GELU kernels and remove compile bloat
|
hace 1 año |
layernorm.cpp
|
081545bde6
fix: various CUDA kernel tweaks
|
hace 1 año |
layernorm_kernels.cu
|
3d72f05c7b
feat: flattened 1D tensor -> 2D tensor (#85)
|
hace 1 año |
pos_encoding.cpp
|
45f6d9f923
initial refactor commit
|
hace 1 año |
pos_encoding_kernels.cu
|
3d72f05c7b
feat: flattened 1D tensor -> 2D tensor (#85)
|
hace 1 año |
quantization.cpp
|
887e03669a
feat: add exllamav2 for GPTQ (#99)
|
hace 1 año |
reduction.cuh
|
081545bde6
fix: various CUDA kernel tweaks
|
hace 1 año |