Историја ревизија

Аутор SHA1 Порука Датум
  AlpinDale 8adc496a2a fix: use paged attention for bloc swapping/copying in flashinfer пре 5 месеци
  AlpinDale 22305c91e9 refactor _prepare_model_input_tensor and attn metadata builder for most backends пре 5 месеци
  AlpinDale 9d7beaa5b9 chore: separate kv_scale into k_scale and v_scale пре 5 месеци
  AlpinDale 2105e4fd6b feat: correctly invoke prefill & decode kernels for cross-attention пре 5 месеци
  AlpinDale 151d782233 fix: attention softcapping for flashinfer пре 5 месеци
  AlpinDale ca6b69966d fix: explicitly end_forward() calls to flashinfer пре 6 месеци
  AlpinDale b6e60143e7 Flashinfer for prefill phase (#580) пре 6 месеци
  AlpinDale b6ff0623a6 chore: clean up branding пре 6 месеци
  AlpinDale 405bb74612 Control plane comms refactor (#573) пре 6 месеци
  AlpinDale 156f577f79 feat: switch from `PYBIND11_MODULE` to `TORCH_LIBRARY` (#569) пре 6 месеци
  AlpinDale 696f2cd59c add phi3_small support with blocksparse attention пре 6 месеци
  AlpinDale 0c15965621 fix fp8 kv пре 6 месеци
  AlpinDale a94de94c44 refactor: combine the prefill and decode into a single API (#553) пре 6 месеци
  AlpinDale 50b7c13db0 refactor: attention selector (#552) пре 6 месеци
  AlpinDale d11d68f4e6 switch to vllm-flash-attn пре 6 месеци
  AlpinDale 8b56dc4347 dict -> torch.Tensor for blocks_to_swap пре 6 месеци
  AlpinDale 3a0d1c7705 add get_name method to attention backends пре 6 месеци
  AlpinDale 21ce19b3ea blocks_to_copy dict -> torch.Tensor пре 6 месеци
  AlpinDale 2351a0e2cd feat: FlashInfer backend for decoding phase (#548) пре 6 месеци