AlpinDale ad24e74a99 feat: FP8 weight-only quantization support for Ampere GPUs 6 місяців тому
..
all_reduce 156f577f79 feat: switch from `PYBIND11_MODULE` to `TORCH_LIBRARY` (#569) 7 місяців тому
attention 156f577f79 feat: switch from `PYBIND11_MODULE` to `TORCH_LIBRARY` (#569) 7 місяців тому
backup f8dfac6372 chore: attention refactor and upstream sync apr01 (#365) 11 місяців тому
cpu 271a680026 feat: inference support for PowerPC ISA 7 місяців тому
hadamard 5d288aa76c feat: add fast hadamard transformation kernels (#232) 1 рік тому
mamba 5be90c3859 Mamba infrastrucuture support (#586) 6 місяців тому
moe 156f577f79 feat: switch from `PYBIND11_MODULE` to `TORCH_LIBRARY` (#569) 7 місяців тому
punica 4f42985b5c feat: qwen2 lora shapes 7 місяців тому
quantization ad24e74a99 feat: FP8 weight-only quantization support for Ampere GPUs 6 місяців тому
activation_kernels.cu c0c336aaa3 refactor: registry for processing model inputs; quick_gelu; clip model support 7 місяців тому
cache.h 156f577f79 feat: switch from `PYBIND11_MODULE` to `TORCH_LIBRARY` (#569) 7 місяців тому
cache_kernels.cu 156f577f79 feat: switch from `PYBIND11_MODULE` to `TORCH_LIBRARY` (#569) 7 місяців тому
cuda_compat.h 00acf371f9 rocm: fused topk softmax 7 місяців тому
cuda_utils.h 156f577f79 feat: switch from `PYBIND11_MODULE` to `TORCH_LIBRARY` (#569) 7 місяців тому
cuda_utils_kernels.cu 156f577f79 feat: switch from `PYBIND11_MODULE` to `TORCH_LIBRARY` (#569) 7 місяців тому
dispatch_utils.h 156f577f79 feat: switch from `PYBIND11_MODULE` to `TORCH_LIBRARY` (#569) 7 місяців тому
layernorm_kernels.cu 156f577f79 feat: switch from `PYBIND11_MODULE` to `TORCH_LIBRARY` (#569) 7 місяців тому
ops.h 5be90c3859 Mamba infrastrucuture support (#586) 6 місяців тому
pos_encoding_kernels.cu 156f577f79 feat: switch from `PYBIND11_MODULE` to `TORCH_LIBRARY` (#569) 7 місяців тому
reduction.cuh aba03b4756 feat: dynamic per-token activation quantization 7 місяців тому
registration.h 156f577f79 feat: switch from `PYBIND11_MODULE` to `TORCH_LIBRARY` (#569) 7 місяців тому
torch_bindings.cpp ad24e74a99 feat: FP8 weight-only quantization support for Ampere GPUs 6 місяців тому