.. |
__init__.py
|
2bd6c92f73
fix: lora inclusion in wheels
|
1 an în urmă |
fully_sharded_layers.py
|
e87c32bed3
feat: full tensor parallel for LoRA layers (#545)
|
8 luni în urmă |
layers.py
|
9e73559eba
make use of batched rotary embedding kernels to support long context lora
|
8 luni în urmă |
lora.py
|
e87c32bed3
feat: full tensor parallel for LoRA layers (#545)
|
8 luni în urmă |
models.py
|
9e73559eba
make use of batched rotary embedding kernels to support long context lora
|
8 luni în urmă |
punica.py
|
e87c32bed3
feat: full tensor parallel for LoRA layers (#545)
|
8 luni în urmă |
request.py
|
5b0c11d190
support pipeline parallel pynccl groups
|
8 luni în urmă |
utils.py
|
9e73559eba
make use of batched rotary embedding kernels to support long context lora
|
8 luni în urmă |
worker_manager.py
|
9e73559eba
make use of batched rotary embedding kernels to support long context lora
|
8 luni în urmă |