Commit History

Автор SHA1 Съобщение Дата
  AlpinDale 50c2434267 move megatron to a top-level directory преди 9 месеца
  AlpinDale 41beab5dc1 add exllamav2 tensor paralell, fused MoE for GPTQ/AWQ преди 9 месеца
  AlpinDale 0f1399c135 feat: attention refactor part 2 преди 9 месеца
  AlpinDale d1786645a3 fix formatting преди 9 месеца
  AlpinDale 0299dd41f0 fix query shape in moe models преди 9 месеца
  AlpinDale 688d56993a add logit scale for command-r преди 9 месеца
  AlpinDale f1ea36a445 add some imports преди 9 месеца
  AlpinDale f8dfac6372 chore: attention refactor and upstream sync apr01 (#365) преди 10 месеца
  AlpinDale da223153c6 feat&fix: cohere support and missing GPU blocks (#333) преди 10 месеца
  AlpinDale e42a78381a feat: switch from pylint to ruff (#322) преди 10 месеца
  AlpinDale e31c6f0b45 feat: refactor modeling logic and support more models (#274) преди 11 месеца
  AlpinDale 7d6ba53602 feat: fused top-k kernels for MoE (#273) преди 11 месеца
  AlpinDale 842912d022 feat: on-the-fly gguf conversion (#250) преди 11 месеца
  AlpinDale d9b65e6c5f feat: DeepSeek MoE support (#237) преди 1 година