Commit Verlauf

Autor SHA1 Nachricht Datum
  AlpinDale 1efd0f89b7 feat: support FP8 for DeepSeekV2 MoE vor 6 Monaten
  AlpinDale cdc0e498a9 fix: illegal memory access in FP8 MoE kernel vor 6 Monaten
  AlpinDale 3e7d5f7d14 chore: reloading fused_moe config on the last chunk vor 6 Monaten
  AlpinDale 3b2666314d fix: add chunking mechanism to fused_moe vor 6 Monaten
  AlpinDale 336eb4dbf8 fix: raise error in moe kernel if it receives more than 65k tokens vor 6 Monaten
  AlpinDale bbde979ecd DeepSeek-V2 (#579) vor 6 Monaten
  AlpinDale 156f577f79 feat: switch from `PYBIND11_MODULE` to `TORCH_LIBRARY` (#569) vor 6 Monaten
  AlpinDale 4bdd2f9892 chore: enhance MoE benchmarking vor 6 Monaten
  AlpinDale 00acf371f9 rocm: fused topk softmax vor 6 Monaten
  AlpinDale 1e35cef979 feat: add arctic snowflake model (#551) vor 6 Monaten
  AlpinDale 0751a2ecf6 fix expert_ids shape in Moe vor 7 Monaten
  AlpinDale db9beeb79c fix typo vor 7 Monaten
  AlpinDale b565928d3f fix: compute_dtype in MoE kernel vor 7 Monaten
  AlpinDale 36660b55c2 chore: mixtral fp8 w/ static scales (#542) vor 7 Monaten
  AlpinDale fca911ee0a vLLM Upstream Sync (#526) vor 7 Monaten
  AlpinDale 9d81716bfd [v0.5.3] Release Candidate (#388) vor 9 Monaten
  AlpinDale f8dfac6372 chore: attention refactor and upstream sync apr01 (#365) vor 10 Monaten