Commit History

Автор SHA1 Съобщение Дата
  AlpinDale ae04f57ec1 feat: Pipeline Parallel support (#581) преди 7 месеца
  AlpinDale 405bb74612 Control plane comms refactor (#573) преди 7 месеца
  AlpinDale 323fe23b21 chore: use 127.0.0.1 for single-node setups преди 7 месеца
  AlpinDale dfa59bc5f9 fix: 16 GPUs in a cluster преди 7 месеца
  AlpinDale 17eb1b7eb9 chore: remove ray health check преди 7 месеца
  AlpinDale de62ceb18c refactor: eliminate parallel worker per-step task scheduling overhead преди 7 месеца
  AlpinDale 9f3d6205ce fix ray gpu executor преди 7 месеца
  AlpinDale 236be273e5 feat: tensor parallel speculative decoding (#554) преди 7 месеца
  AlpinDale c6a501f682 add multiprocessing executor; make ray optional преди 7 месеца
  AlpinDale ef733aee43 implement ExecuteModelData to reduce executor complexity преди 7 месеца
  AlpinDale 7bcf4c3fc9 centralize gpu worker construction преди 7 месеца
  AlpinDale fb982981ce num_lookahead_slots in neuron and ray executors преди 7 месеца
  AlpinDale 957ed7d244 type hints преди 7 месеца
  AlpinDale c21af7acad feat: `DistributedGPUExecutor` abstract class (#541) преди 8 месеца
  AlpinDale 199e776722 chore: move ray utils to executor dir преди 8 месеца
  AlpinDale 46159b107a formatting: pt1 преди 8 месеца
  AlpinDale fca911ee0a vLLM Upstream Sync (#526) преди 8 месеца
  AlpinDale f894f7b176 Revert "reduce dedupe by wrapping in general worker class" преди 9 месеца
  AlpinDale 082b0b03bc Revert "actually run the workers" преди 9 месеца
  AlpinDale 36cf32649d actually run the workers преди 9 месеца
  AlpinDale 9fff6fb507 reduce dedupe by wrapping in general worker class преди 9 месеца
  AlpinDale 9d81716bfd [v0.5.3] Release Candidate (#388) преди 10 месеца
  AlpinDale 0f6d56b07f feat: model executor refactor (#367) преди 11 месеца
  AlpinDale f8dfac6372 chore: attention refactor and upstream sync apr01 (#365) преди 11 месеца