Lịch sử commit

Tác giả SHA1 Thông báo Ngày
  AlpinDale 50c2434267 move megatron to a top-level directory 9 tháng trước cách đây
  AlpinDale aa244761ed formatting and typing 10 tháng trước cách đây
  AlpinDale 41beab5dc1 add exllamav2 tensor paralell, fused MoE for GPTQ/AWQ 10 tháng trước cách đây
  AlpinDale 0f1399c135 feat: attention refactor part 2 10 tháng trước cách đây
  AlpinDale d1786645a3 fix formatting 10 tháng trước cách đây
  AlpinDale 0299dd41f0 fix query shape in moe models 10 tháng trước cách đây
  AlpinDale 688d56993a add logit scale for command-r 10 tháng trước cách đây
  AlpinDale f1ea36a445 add some imports 10 tháng trước cách đây
  AlpinDale f8dfac6372 chore: attention refactor and upstream sync apr01 (#365) 10 tháng trước cách đây
  AlpinDale da223153c6 feat&fix: cohere support and missing GPU blocks (#333) 10 tháng trước cách đây
  AlpinDale e42a78381a feat: switch from pylint to ruff (#322) 10 tháng trước cách đây
  AlpinDale e31c6f0b45 feat: refactor modeling logic and support more models (#274) 11 tháng trước cách đây
  AlpinDale 7d6ba53602 feat: fused top-k kernels for MoE (#273) 11 tháng trước cách đây
  AlpinDale 224b87b484 feat: add fused mixtral moe support (#238) 11 tháng trước cách đây
  AlpinDale 842912d022 feat: on-the-fly gguf conversion (#250) 1 năm trước cách đây
  AlpinDale d9b65e6c5f feat: DeepSeek MoE support (#237) 1 năm trước cách đây
  AlpinDale c3a221eb02 feat: GGUF, QuIP#, and Marlin support (#228) 1 năm trước cách đây
  AlpinDale 8fa608aeb7 feat: replace Ray with NCCL for control plane comms (#221) 1 năm trước cách đây
  AlpinDale 97f37c1cb2 fix: use tensor parallel for quantized mixtral (#213) 1 năm trước cách đây
  AlpinDale 193287b2ef fix: mixtral unused import 1 năm trước cách đây
  AlpinDale 53d391e1f2 merge 'dev' into 'main' 1 năm trước cách đây
  AlpinDale 7e72ce0a73 feat: mixtral tensor parallelism (#193) 1 năm trước cách đây
  AlpinDale b9b295d74e chore: backlogs 1 (#191) 1 năm trước cách đây
  AlpinDale f013d714c0 chore: merge dev branch into main (#177) 1 năm trước cách đây
  g4rg fe57bb7ad2 feat: add rope scaling to mixtral (#174) 1 năm trước cách đây
  AlpinDale 7d91e9e0f2 feat: CUDA graphs (#172) 1 năm trước cách đây
  AlpinDale 725be3e0de feat: mixtral HF with expert parallelism (#167) 1 năm trước cách đây
  AlpinDale 730357c7d5 chore: implement lazy module loader for models (#165) 1 năm trước cách đây
  AlpinDale 2755a48d51 merge dev branch into main (#153) 1 năm trước cách đây
  AlpinDale 87277c76e4 feat: Mixtral 8x7B support (#155) 1 năm trước cách đây