Commit History

Автор SHA1 Съобщение Дата
  AlpinDale d357341203 chore: add pipeline parallel support for Qwen преди 4 месеца
  AlpinDale 1efd0f89b7 feat: support FP8 for DeepSeekV2 MoE преди 4 месеца
  AlpinDale 9622c59f8f chore: support 2D input shape in MoE layer преди 4 месеца
  AlpinDale 0f4a9ee77b quantized lm_head (#582) преди 4 месеца
  AlpinDale cf472315cc refactor: isolate FP8 from mixtral преди 4 месеца
  AlpinDale ae04f57ec1 feat: Pipeline Parallel support (#581) преди 4 месеца
  AlpinDale 656459fd84 make fp8_e4m3 work on nvidia преди 5 месеца
  AlpinDale 676322dd62 qwen2_moe: mlp_only_layers преди 5 месеца
  AlpinDale 50b7c13db0 refactor: attention selector (#552) преди 5 месеца
  AlpinDale b178ae4b4a chore: generalize linear_method to be quant_method (#540) преди 5 месеца
  AlpinDale fca911ee0a vLLM Upstream Sync (#526) преди 6 месеца
  AlpinDale fc80f57967 fix: correct file name for qwen2 moe преди 7 месеца