.. |
compressed_tensors
|
90bafca8e3
fix: cuda graphs with sparseml quants
|
7 hónapja |
gguf_utils
|
9d81716bfd
[v0.5.3] Release Candidate (#388)
|
10 hónapja |
__init__.py
|
690110a051
feat: bitsandbytes quantization
|
7 hónapja |
aqlm.py
|
2649f3f14e
aqlm works on pascal
|
7 hónapja |
autoquant.py
|
0307da9e15
refactor: bitsandbytes -> autoquant
|
7 hónapja |
awq.py
|
c66b1b57b1
Marlin 2:4 sparsity (#555)
|
7 hónapja |
base_config.py
|
c66b1b57b1
Marlin 2:4 sparsity (#555)
|
7 hónapja |
bitsandbytes.py
|
690110a051
feat: bitsandbytes quantization
|
7 hónapja |
deepspeedfp.py
|
4acf34417a
feat: add DeepSpeedFP quantization for all models
|
8 hónapja |
eetq.py
|
b178ae4b4a
chore: generalize linear_method to be quant_method (#540)
|
8 hónapja |
exl2.py
|
b178ae4b4a
chore: generalize linear_method to be quant_method (#540)
|
8 hónapja |
fp8.py
|
39b36efabf
fix: mixtral fp8 ckpt loading
|
7 hónapja |
gguf.py
|
b178ae4b4a
chore: generalize linear_method to be quant_method (#540)
|
8 hónapja |
gptq.py
|
c66b1b57b1
Marlin 2:4 sparsity (#555)
|
7 hónapja |
gptq_marlin.py
|
5cedee9024
fix gemma with gptq marlin
|
7 hónapja |
gptq_marlin_24.py
|
f6250c5516
move dockerfiles to root; fix cpu build
|
7 hónapja |
hadamard.safetensors
|
9d81716bfd
[v0.5.3] Release Candidate (#388)
|
10 hónapja |
marlin.py
|
c66b1b57b1
Marlin 2:4 sparsity (#555)
|
7 hónapja |
quip.py
|
c66b1b57b1
Marlin 2:4 sparsity (#555)
|
7 hónapja |
quip_utils.py
|
9d81716bfd
[v0.5.3] Release Candidate (#388)
|
10 hónapja |
schema.py
|
9d81716bfd
[v0.5.3] Release Candidate (#388)
|
10 hónapja |
squeezellm.py
|
f6250c5516
move dockerfiles to root; fix cpu build
|
7 hónapja |