AlpinDale 84163654f4 tokenizer: allow skip_special_tokens=False for mistral tokenizer 3 săptămâni în urmă
..
adapter_commons 2f61644f6e SPMD optimizations (#824) 2 luni în urmă
assets 411ac4f405 vlm: add support for Qwen2-VL model (#1015) 4 săptămâni în urmă
attention a985143768 core: add cuda graph support for encoder-decoder models (#1051) 3 săptămâni în urmă
common 9bdf8d5bfa mamba: enable continuous batching for mamba kernels (#1055) 3 săptămâni în urmă
compilation 960dee2f97 torch.compile: fix functionalization (#1045) 4 săptămâni în urmă
distributed b3f9ab3b72 quant: add tensor parallel support for bitsandbytes (#1052) 3 săptămâni în urmă
endpoints 1264e0b5d8 api: add mistral function calling format to all models loaded with "mistral" format (#1053) 3 săptămâni în urmă
engine a985143768 core: add cuda graph support for encoder-decoder models (#1051) 3 săptămâni în urmă
executor 638c08d9dc fix: clean shutdown issues (#1047) 4 săptămâni în urmă
inputs 05be6085ec core: factor out input preprocessing into a separate class (#1039) 4 săptămâni în urmă
kv_quant 8a71788372 Add OLMoE (#772) 3 luni în urmă
lora bf4a4d8516 fix: do not register punica with torch if using older torch (#948) 1 lună în urmă
modeling 9bdf8d5bfa mamba: enable continuous batching for mamba kernels (#1055) 3 săptămâni în urmă
multimodal 411ac4f405 vlm: add support for Qwen2-VL model (#1015) 4 săptămâni în urmă
platforms f2b6dc3872 cpu: add support for W8A8 quantization via compressed-tensor (#1017) 4 săptămâni în urmă
plugins 9797d38b24 torch.compile: allow adding custom compile backends via plugins (#1041) 4 săptămâni în urmă
processing f561a54a43 core: fix async postprocessor in case of preemption (#1000) 1 lună în urmă
prompt_adapter 30d02d0747 chore: remove peft as a requirement (#1006) 4 săptămâni în urmă
quantization 8976805f90 kernel: asymmetric AQ AZP quantization kernels (#1048) 4 săptămâni în urmă
server 638c08d9dc fix: clean shutdown issues (#1047) 4 săptămâni în urmă
spec_decode 5c3b94de45 spec decode: move ops.advane_step to flash attention backend (#1005) 4 săptămâni în urmă
transformers_utils 84163654f4 tokenizer: allow skip_special_tokens=False for mistral tokenizer 3 săptămâni în urmă
triton_utils 4593a3b306 chore: remove dead code from triton sampling kernels (#1049) 4 săptămâni în urmă
worker a985143768 core: add cuda graph support for encoder-decoder models (#1051) 3 săptămâni în urmă
__init__.py f1d0b77c92 [0.6.0] Release Candidate (#481) 4 luni în urmă
_core_ext.py f1ea7711bd core: do not compile ScalarType for torch < 2.4.0 (#938) 1 lună în urmă
_custom_ops.py 9bdf8d5bfa mamba: enable continuous batching for mamba kernels (#1055) 3 săptămâni în urmă
_ipex_ops.py 6951928522 xpu: bump IPEX to 2.3, support GQA (#1042) 4 săptămâni în urmă
connections.py c6c91edab7 ci: update & overhaul test units (#769) 2 luni în urmă
constants.py 2f61644f6e SPMD optimizations (#824) 2 luni în urmă
py.typed 1c988a48b2 fix logging and add py.typed 1 an în urmă
scalar_type.py f1d0b77c92 [0.6.0] Release Candidate (#481) 4 luni în urmă
version.py cbd51a208a ci: bump to 0.6.5 (#964) 1 lună în urmă