AlpinDale 40bc98b363 chore: use cutlass kernels for fp8 if supported 7 luni în urmă
..
compressed_tensors 40bc98b363 chore: use cutlass kernels for fp8 if supported 7 luni în urmă
gguf_utils 9d81716bfd [v0.5.3] Release Candidate (#388) 10 luni în urmă
__init__.py 690110a051 feat: bitsandbytes quantization 7 luni în urmă
aqlm.py 2649f3f14e aqlm works on pascal 7 luni în urmă
autoquant.py 0307da9e15 refactor: bitsandbytes -> autoquant 7 luni în urmă
awq.py c66b1b57b1 Marlin 2:4 sparsity (#555) 7 luni în urmă
base_config.py c66b1b57b1 Marlin 2:4 sparsity (#555) 7 luni în urmă
bitsandbytes.py 690110a051 feat: bitsandbytes quantization 7 luni în urmă
deepspeedfp.py 4acf34417a feat: add DeepSpeedFP quantization for all models 7 luni în urmă
eetq.py b178ae4b4a chore: generalize linear_method to be quant_method (#540) 8 luni în urmă
exl2.py b178ae4b4a chore: generalize linear_method to be quant_method (#540) 8 luni în urmă
fp8.py 40bc98b363 chore: use cutlass kernels for fp8 if supported 7 luni în urmă
gguf.py b178ae4b4a chore: generalize linear_method to be quant_method (#540) 8 luni în urmă
gptq.py c66b1b57b1 Marlin 2:4 sparsity (#555) 7 luni în urmă
gptq_marlin.py 5cedee9024 fix gemma with gptq marlin 7 luni în urmă
gptq_marlin_24.py f6250c5516 move dockerfiles to root; fix cpu build 7 luni în urmă
hadamard.safetensors 9d81716bfd [v0.5.3] Release Candidate (#388) 10 luni în urmă
marlin.py c66b1b57b1 Marlin 2:4 sparsity (#555) 7 luni în urmă
quip.py c66b1b57b1 Marlin 2:4 sparsity (#555) 7 luni în urmă
quip_utils.py 9d81716bfd [v0.5.3] Release Candidate (#388) 10 luni în urmă
schema.py 9d81716bfd [v0.5.3] Release Candidate (#388) 10 luni în urmă
squeezellm.py f6250c5516 move dockerfiles to root; fix cpu build 7 luni în urmă