Historial de Commits

Autor SHA1 Mensaje Fecha
  AlpinDale ae04f57ec1 feat: Pipeline Parallel support (#581) hace 7 meses
  AlpinDale 405bb74612 Control plane comms refactor (#573) hace 7 meses
  AlpinDale 323fe23b21 chore: use 127.0.0.1 for single-node setups hace 7 meses
  AlpinDale dfa59bc5f9 fix: 16 GPUs in a cluster hace 7 meses
  AlpinDale 17eb1b7eb9 chore: remove ray health check hace 7 meses
  AlpinDale de62ceb18c refactor: eliminate parallel worker per-step task scheduling overhead hace 7 meses
  AlpinDale 9f3d6205ce fix ray gpu executor hace 7 meses
  AlpinDale 236be273e5 feat: tensor parallel speculative decoding (#554) hace 7 meses
  AlpinDale c6a501f682 add multiprocessing executor; make ray optional hace 7 meses
  AlpinDale ef733aee43 implement ExecuteModelData to reduce executor complexity hace 7 meses
  AlpinDale 7bcf4c3fc9 centralize gpu worker construction hace 8 meses
  AlpinDale fb982981ce num_lookahead_slots in neuron and ray executors hace 8 meses
  AlpinDale 957ed7d244 type hints hace 8 meses
  AlpinDale c21af7acad feat: `DistributedGPUExecutor` abstract class (#541) hace 8 meses
  AlpinDale 199e776722 chore: move ray utils to executor dir hace 8 meses
  AlpinDale 46159b107a formatting: pt1 hace 8 meses
  AlpinDale fca911ee0a vLLM Upstream Sync (#526) hace 8 meses
  AlpinDale f894f7b176 Revert "reduce dedupe by wrapping in general worker class" hace 10 meses
  AlpinDale 082b0b03bc Revert "actually run the workers" hace 10 meses
  AlpinDale 36cf32649d actually run the workers hace 10 meses
  AlpinDale 9fff6fb507 reduce dedupe by wrapping in general worker class hace 10 meses
  AlpinDale 9d81716bfd [v0.5.3] Release Candidate (#388) hace 10 meses
  AlpinDale 0f6d56b07f feat: model executor refactor (#367) hace 11 meses
  AlpinDale f8dfac6372 chore: attention refactor and upstream sync apr01 (#365) hace 11 meses