Commit History

Автор SHA1 Съобщение Дата
  AlpinDale 50c2434267 move megatron to a top-level directory преди 9 месеца
  AlpinDale aa244761ed formatting and typing преди 9 месеца
  AlpinDale 41beab5dc1 add exllamav2 tensor paralell, fused MoE for GPTQ/AWQ преди 9 месеца
  AlpinDale 0f1399c135 feat: attention refactor part 2 преди 9 месеца
  AlpinDale d1786645a3 fix formatting преди 9 месеца
  AlpinDale 0299dd41f0 fix query shape in moe models преди 9 месеца
  AlpinDale 688d56993a add logit scale for command-r преди 9 месеца
  AlpinDale f1ea36a445 add some imports преди 9 месеца
  AlpinDale f8dfac6372 chore: attention refactor and upstream sync apr01 (#365) преди 10 месеца
  AlpinDale da223153c6 feat&fix: cohere support and missing GPU blocks (#333) преди 10 месеца
  AlpinDale e42a78381a feat: switch from pylint to ruff (#322) преди 10 месеца
  AlpinDale e31c6f0b45 feat: refactor modeling logic and support more models (#274) преди 11 месеца
  AlpinDale 7d6ba53602 feat: fused top-k kernels for MoE (#273) преди 11 месеца
  AlpinDale 224b87b484 feat: add fused mixtral moe support (#238) преди 11 месеца
  AlpinDale 842912d022 feat: on-the-fly gguf conversion (#250) преди 11 месеца
  AlpinDale d9b65e6c5f feat: DeepSeek MoE support (#237) преди 1 година
  AlpinDale c3a221eb02 feat: GGUF, QuIP#, and Marlin support (#228) преди 1 година
  AlpinDale 8fa608aeb7 feat: replace Ray with NCCL for control plane comms (#221) преди 1 година
  AlpinDale 97f37c1cb2 fix: use tensor parallel for quantized mixtral (#213) преди 1 година
  AlpinDale 193287b2ef fix: mixtral unused import преди 1 година
  AlpinDale 53d391e1f2 merge 'dev' into 'main' преди 1 година
  AlpinDale 7e72ce0a73 feat: mixtral tensor parallelism (#193) преди 1 година
  AlpinDale b9b295d74e chore: backlogs 1 (#191) преди 1 година
  AlpinDale f013d714c0 chore: merge dev branch into main (#177) преди 1 година
  g4rg fe57bb7ad2 feat: add rope scaling to mixtral (#174) преди 1 година
  AlpinDale 7d91e9e0f2 feat: CUDA graphs (#172) преди 1 година
  AlpinDale 725be3e0de feat: mixtral HF with expert parallelism (#167) преди 1 година
  AlpinDale 730357c7d5 chore: implement lazy module loader for models (#165) преди 1 година
  AlpinDale 2755a48d51 merge dev branch into main (#153) преди 1 година
  AlpinDale 87277c76e4 feat: Mixtral 8x7B support (#155) преди 1 година