Commit Verlauf

Autor SHA1 Nachricht Datum
  AlpinDale 1efd0f89b7 feat: support FP8 for DeepSeekV2 MoE vor 6 Monaten
  AlpinDale 9622c59f8f chore: support 2D input shape in MoE layer vor 6 Monaten
  AlpinDale 0f4a9ee77b quantized lm_head (#582) vor 6 Monaten
  AlpinDale cf472315cc refactor: isolate FP8 from mixtral vor 7 Monaten
  AlpinDale ae04f57ec1 feat: Pipeline Parallel support (#581) vor 7 Monaten
  AlpinDale 656459fd84 make fp8_e4m3 work on nvidia vor 7 Monaten
  AlpinDale 676322dd62 qwen2_moe: mlp_only_layers vor 7 Monaten
  AlpinDale 50b7c13db0 refactor: attention selector (#552) vor 7 Monaten
  AlpinDale b178ae4b4a chore: generalize linear_method to be quant_method (#540) vor 7 Monaten
  AlpinDale fca911ee0a vLLM Upstream Sync (#526) vor 8 Monaten
  AlpinDale fc80f57967 fix: correct file name for qwen2 moe vor 9 Monaten