Commit History

Автор SHA1 Съобщение Дата
  AlpinDale 5d98b7ead1 fix: input_scale for w8a8 is optional преди 5 месеца
  AlpinDale 9be43994fe feat: fbgemm quantization support (#601) преди 5 месеца
  AlpinDale d3c474d219 chore: enable dynamic per-token `fp8` преди 5 месеца
  AlpinDale e90ad4acec chore: implement fallback for fp8 channelwise using torch._scaled_mm преди 5 месеца
  AlpinDale b5d23ab6d4 chore: enable bias w/ FP8 layers in CUTLASS kernels преди 5 месеца
  AlpinDale 500f3b654f fix: support bias term in compressed-tensors quant преди 5 месеца
  AlpinDale 98cb1c4cd1 feat: support fp8 via `llm-compressor` преди 5 месеца