AlpinDale
|
eb2c5c77df
feat: enforce the max possible seqlen
|
před 6 měsíci |
AlpinDale
|
de62ceb18c
refactor: eliminate parallel worker per-step task scheduling overhead
|
před 6 měsíci |
AlpinDale
|
236be273e5
feat: tensor parallel speculative decoding (#554)
|
před 6 měsíci |
AlpinDale
|
7bcff4ac03
implement sharded state dict
|
před 6 měsíci |
AlpinDale
|
b984fe4a91
refactor custom allreduce to support multiple tp groups
|
před 6 měsíci |
AlpinDale
|
be8154a8a0
feat: proper embeddings API with e5-mistral-7b support
|
před 6 měsíci |
AlpinDale
|
8ae2cce237
refactor pynccl
|
před 6 měsíci |
AlpinDale
|
0e062e66d3
set block size at init
|
před 6 měsíci |
AlpinDale
|
8b56dc4347
dict -> torch.Tensor for blocks_to_swap
|
před 6 měsíci |
AlpinDale
|
21ce19b3ea
blocks_to_copy dict -> torch.Tensor
|
před 6 měsíci |
AlpinDale
|
ef733aee43
implement ExecuteModelData to reduce executor complexity
|
před 6 měsíci |
AlpinDale
|
1879e32510
enable all-reduce for multiple tp groups
|
před 6 měsíci |
AlpinDale
|
46159b107a
formatting: pt1
|
před 7 měsíci |
AlpinDale
|
4c746d8baa
chore: init nccl using the gloo backend
|
před 7 měsíci |
AlpinDale
|
fca911ee0a
vLLM Upstream Sync (#526)
|
před 7 měsíci |
AlpinDale
|
f894f7b176
Revert "reduce dedupe by wrapping in general worker class"
|
před 8 měsíci |
AlpinDale
|
9fff6fb507
reduce dedupe by wrapping in general worker class
|
před 8 měsíci |
AlpinDale
|
9d81716bfd
[v0.5.3] Release Candidate (#388)
|
před 9 měsíci |
AlpinDale
|
e3252edd07
fix: remove event and stream, add typing (#382)
|
před 10 měsíci |
AlpinDale
|
f8dfac6372
chore: attention refactor and upstream sync apr01 (#365)
|
před 10 měsíci |
AlpinDale
|
e42a78381a
feat: switch from pylint to ruff (#322)
|
před 11 měsíci |
AlpinDale
|
9810daa699
feat: INT8 KV Cache (#298)
|
před 11 měsíci |
AlpinDale
|
4b80b42362
fix: memory leaks due to nccl cuda graphs (#275)
|
před 11 měsíci |
Thomas Xin
|
43cf0e98a0
fix: worker initialization on WSL (#260)
|
před 11 měsíci |
AlpinDale
|
ea0f57b233
feat: allow further support for non-cuda devices (#247)
|
před 1 rokem |
AlpinDale
|
31c95011a6
feat: FP8 E5M2 KV Cache (#226)
|
před 1 rokem |
AlpinDale
|
641bb0f6e9
feat: add custom allreduce kernels (#224)
|
před 1 rokem |
AlpinDale
|
c0aac15421
feat: S-LoRA support (#222)
|
před 1 rokem |
AlpinDale
|
8fa608aeb7
feat: replace Ray with NCCL for control plane comms (#221)
|
před 1 rokem |
AlpinDale
|
15a0454172
feat: FP8 KV Cache (#185)
|
před 1 rokem |