コミット履歴

作者 SHA1 メッセージ 日付
  AlpinDale 696f2cd59c add phi3_small support with blocksparse attention 7 ヶ月 前
  AlpinDale b8b63eb5ca fix head_size check for flash attention backend 7 ヶ月 前
  AlpinDale 93cffaf446 add flash_attn back 7 ヶ月 前
  AlpinDale 0c15965621 fix fp8 kv 7 ヶ月 前
  AlpinDale a94de94c44 refactor: combine the prefill and decode into a single API (#553) 7 ヶ月 前
  AlpinDale 01190e5049 use flash attention for the decoding phase 7 ヶ月 前
  AlpinDale 50b7c13db0 refactor: attention selector (#552) 7 ヶ月 前
  AlpinDale d11d68f4e6 switch to vllm-flash-attn 7 ヶ月 前
  AlpinDale 8b56dc4347 dict -> torch.Tensor for blocks_to_swap 7 ヶ月 前
  AlpinDale 3a0d1c7705 add get_name method to attention backends 7 ヶ月 前
  AlpinDale 21ce19b3ea blocks_to_copy dict -> torch.Tensor 7 ヶ月 前
  AlpinDale 35ae01d7ba refactor: attention metadata term 7 ヶ月 前
  AlpinDale aa15d3dc0f sliding window in prefix prefill kernel 7 ヶ月 前
  AlpinDale fca911ee0a vLLM Upstream Sync (#526) 8 ヶ月 前
  AlpinDale 66b7bc4415 sliding window in prefix kernel 9 ヶ月 前
  AlpinDale 9d81716bfd [v0.5.3] Release Candidate (#388) 10 ヶ月 前