Commit Verlauf

Autor SHA1 Nachricht Datum
  50h100a 1a5e612eaf pass tensor progress bar as weight iterator vor 2 Monaten
  50h100a 1ca5f47075 use tensor progress bar vor 2 Monaten
  AlpinDale 7222b84582 feat: ministral support (#776) vor 2 Monaten
  AlpinDale 0e558e9b2f fix: loading chameleon model with TP>1 (#695) vor 4 Monaten
  AlpinDale 3f712cd287 feat: add progress bar for loading individual weight modules (#640) vor 4 Monaten
  AlpinDale f1d0b77c92 [0.6.0] Release Candidate (#481) vor 4 Monaten
  AlpinDale 9d81716bfd [v0.5.3] Release Candidate (#388) vor 8 Monaten
  AlpinDale f8dfac6372 chore: attention refactor and upstream sync apr01 (#365) vor 9 Monaten
  sgsdxzy 6ebac34dc1 chore: cleaner pre-llamafied Yi implementation (#352) vor 9 Monaten
  AlpinDale 681e94611f fix: restore backwards compatibility with old Yi models (#351) vor 9 Monaten
  AlpinDale da223153c6 feat&fix: cohere support and missing GPU blocks (#333) vor 9 Monaten
  AlpinDale e42a78381a feat: switch from pylint to ruff (#322) vor 10 Monaten
  AlpinDale 9810daa699 feat: INT8 KV Cache (#298) vor 10 Monaten
  AlpinDale e31c6f0b45 feat: refactor modeling logic and support more models (#274) vor 10 Monaten
  AlpinDale 842912d022 feat: on-the-fly gguf conversion (#250) vor 11 Monaten
  AlpinDale c3a221eb02 feat: GGUF, QuIP#, and Marlin support (#228) vor 11 Monaten
  AlpinDale c0aac15421 feat: S-LoRA support (#222) vor 11 Monaten
  AlpinDale 8fa608aeb7 feat: replace Ray with NCCL for control plane comms (#221) vor 11 Monaten
  AlpinDale f013d714c0 chore: merge dev branch into main (#177) vor 1 Jahr
  AlpinDale 2755a48d51 merge dev branch into main (#153) vor 1 Jahr
  AlpinDale 887e03669a feat: add exllamav2 for GPTQ (#99) vor 1 Jahr
  AlpinDale 74604eb252 fix: pylint complaints (#91) vor 1 Jahr
  AlpinDale efc6f7fbec chore: reformats (#90) vor 1 Jahr
  AlpinDale a6a4220fa6 feat: refactor megatron and quants (#57) vor 1 Jahr
  50h100a 1da9efbcc7 restore rope scaling (#25) vor 1 Jahr
  AlpinDale 0495c50a3e GPTQ+exllama support (#21) vor 1 Jahr
  AlpinDale 1ab15649ae fix column parallelism in quantized layers vor 1 Jahr
  AlpinDale 779148bfc3 fix missing import in llama modeling vor 1 Jahr
  AlpinDale 75c27d3e65 massive overhaul vor 1 Jahr
  AlpinDale 280583cd29 forgot import in llama code vor 1 Jahr