提交历史

作者 SHA1 备注 提交日期
  AlpinDale 696f2cd59c add phi3_small support with blocksparse attention 7 月之前
  AlpinDale 19a959a03e prioritize user selection for attention 7 月之前
  AlpinDale b8b63eb5ca fix head_size check for flash attention backend 7 月之前
  AlpinDale 93cffaf446 add flash_attn back 7 月之前
  AlpinDale 01190e5049 use flash attention for the decoding phase 7 月之前
  AlpinDale 50b7c13db0 refactor: attention selector (#552) 7 月之前
  AlpinDale d11d68f4e6 switch to vllm-flash-attn 7 月之前
  AlpinDale 2351a0e2cd feat: FlashInfer backend for decoding phase (#548) 7 月之前
  AlpinDale fca911ee0a vLLM Upstream Sync (#526) 8 月之前
  AlpinDale 9d81716bfd [v0.5.3] Release Candidate (#388) 10 月之前