.. |
compressed_tensors
|
40bc98b363
chore: use cutlass kernels for fp8 if supported
|
7 luni în urmă |
gguf_utils
|
9d81716bfd
[v0.5.3] Release Candidate (#388)
|
10 luni în urmă |
__init__.py
|
690110a051
feat: bitsandbytes quantization
|
7 luni în urmă |
aqlm.py
|
2649f3f14e
aqlm works on pascal
|
7 luni în urmă |
autoquant.py
|
0307da9e15
refactor: bitsandbytes -> autoquant
|
7 luni în urmă |
awq.py
|
c66b1b57b1
Marlin 2:4 sparsity (#555)
|
7 luni în urmă |
base_config.py
|
c66b1b57b1
Marlin 2:4 sparsity (#555)
|
7 luni în urmă |
bitsandbytes.py
|
690110a051
feat: bitsandbytes quantization
|
7 luni în urmă |
deepspeedfp.py
|
4acf34417a
feat: add DeepSpeedFP quantization for all models
|
7 luni în urmă |
eetq.py
|
b178ae4b4a
chore: generalize linear_method to be quant_method (#540)
|
8 luni în urmă |
exl2.py
|
b178ae4b4a
chore: generalize linear_method to be quant_method (#540)
|
8 luni în urmă |
fp8.py
|
40bc98b363
chore: use cutlass kernels for fp8 if supported
|
7 luni în urmă |
gguf.py
|
b178ae4b4a
chore: generalize linear_method to be quant_method (#540)
|
8 luni în urmă |
gptq.py
|
c66b1b57b1
Marlin 2:4 sparsity (#555)
|
7 luni în urmă |
gptq_marlin.py
|
5cedee9024
fix gemma with gptq marlin
|
7 luni în urmă |
gptq_marlin_24.py
|
f6250c5516
move dockerfiles to root; fix cpu build
|
7 luni în urmă |
hadamard.safetensors
|
9d81716bfd
[v0.5.3] Release Candidate (#388)
|
10 luni în urmă |
marlin.py
|
c66b1b57b1
Marlin 2:4 sparsity (#555)
|
7 luni în urmă |
quip.py
|
c66b1b57b1
Marlin 2:4 sparsity (#555)
|
7 luni în urmă |
quip_utils.py
|
9d81716bfd
[v0.5.3] Release Candidate (#388)
|
10 luni în urmă |
schema.py
|
9d81716bfd
[v0.5.3] Release Candidate (#388)
|
10 luni în urmă |
squeezellm.py
|
f6250c5516
move dockerfiles to root; fix cpu build
|
7 luni în urmă |