Commit Verlauf

Autor SHA1 Nachricht Datum
  AlpinDale 0e6c400b13 feat: re-add GGUF (#600) vor 5 Monaten
  AlpinDale 9be43994fe feat: fbgemm quantization support (#601) vor 5 Monaten
  AlpinDale 5289c14b24 feat: Asymmetric Tensor Parallel (#594) vor 5 Monaten
  AlpinDale 0f4a9ee77b quantized lm_head (#582) vor 5 Monaten
  AlpinDale ecd4460d55 fix: support 2D inputs for embeddings vor 5 Monaten
  AlpinDale 6a57861fca feat: initial XPU support via intel_extension_for_pytorch (#571) vor 5 Monaten
  AlpinDale c975bba905 fix: sharded state loader with lora vor 6 Monaten
  AlpinDale 6fc1ec6e9a fix redirects and improve low level debugging vor 6 Monaten
  AlpinDale fca911ee0a vLLM Upstream Sync (#526) vor 7 Monaten
  AlpinDale 9d81716bfd [v0.5.3] Release Candidate (#388) vor 8 Monaten
  AlpinDale 968bde81bf fix: tensor parallel with GPTQ and AWQ quants (#307) vor 10 Monaten
  AlpinDale c41462cfcd feat: exllamav2 quantization (#305) vor 10 Monaten
  AlpinDale 705821a7fe feat: AQLM quantization support (#293) vor 11 Monaten
  TearGosling 80e8a14949 feat: add pygchat Jinja template (#218) vor 1 Jahr
  AlpinDale 8635901c76 fix: s-lora vocab embeddings vor 1 Jahr
  AlpinDale ea0f57b233 feat: allow further support for non-cuda devices (#247) vor 1 Jahr
  AlpinDale c3a221eb02 feat: GGUF, QuIP#, and Marlin support (#228) vor 1 Jahr
  AlpinDale c0aac15421 feat: S-LoRA support (#222) vor 1 Jahr
  AlpinDale 8fa608aeb7 feat: replace Ray with NCCL for control plane comms (#221) vor 1 Jahr
  AlpinDale 2755a48d51 merge dev branch into main (#153) vor 1 Jahr