AlpinDale 6212072245 api: support LoRA lineage and base model metadata management (#1072) 3 săptămâni în urmă
..
adapter_commons 2f61644f6e SPMD optimizations (#824) 2 luni în urmă
assets 411ac4f405 vlm: add support for Qwen2-VL model (#1015) 4 săptămâni în urmă
attention d9d287a288 rocm: enable multi-step scheduling for rocm (#1071) 3 săptămâni în urmă
common 92cee435e2 rocm: add more quants, fix _scaled_mm call (#1062) 3 săptămâni în urmă
compilation 960dee2f97 torch.compile: fix functionalization (#1045) 4 săptămâni în urmă
distributed f81e7d7010 distributed: bind only to 127.0.0.1 for local-only usage (#1061) 3 săptămâni în urmă
endpoints 6212072245 api: support LoRA lineage and base model metadata management (#1072) 3 săptămâni în urmă
engine 12b0059b47 api: enable MQAphroditeEngine for embedding models (#1065) 3 săptămâni în urmă
executor 6212072245 api: support LoRA lineage and base model metadata management (#1072) 3 săptămâni în urmă
inputs 05be6085ec core: factor out input preprocessing into a separate class (#1039) 4 săptămâni în urmă
kv_quant 8a71788372 Add OLMoE (#772) 3 luni în urmă
lora 6212072245 api: support LoRA lineage and base model metadata management (#1072) 3 săptămâni în urmă
modeling 6212072245 api: support LoRA lineage and base model metadata management (#1072) 3 săptămâni în urmă
multimodal 6212072245 api: support LoRA lineage and base model metadata management (#1072) 3 săptămâni în urmă
platforms f2b6dc3872 cpu: add support for W8A8 quantization via compressed-tensor (#1017) 4 săptămâni în urmă
plugins 9797d38b24 torch.compile: allow adding custom compile backends via plugins (#1041) 4 săptămâni în urmă
processing f561a54a43 core: fix async postprocessor in case of preemption (#1000) 1 lună în urmă
prompt_adapter 30d02d0747 chore: remove peft as a requirement (#1006) 4 săptămâni în urmă
quantization 92cee435e2 rocm: add more quants, fix _scaled_mm call (#1062) 3 săptămâni în urmă
server 9a7d5514c4 feat: introduce MQAphroditeEngine (#1056) 3 săptămâni în urmă
spec_decode 5c3b94de45 spec decode: move ops.advane_step to flash attention backend (#1005) 4 săptămâni în urmă
transformers_utils 1264e0b5d8 api: add mistral function calling format to all models loaded with "mistral" format (#1053) 3 săptămâni în urmă
triton_utils 4593a3b306 chore: remove dead code from triton sampling kernels (#1049) 3 săptămâni în urmă
worker 6212072245 api: support LoRA lineage and base model metadata management (#1072) 3 săptămâni în urmă
__init__.py f1d0b77c92 [0.6.0] Release Candidate (#481) 4 luni în urmă
_core_ext.py f1ea7711bd core: do not compile ScalarType for torch < 2.4.0 (#938) 1 lună în urmă
_custom_ops.py 61aed092a5 rocm: add support for FP8 KV cache in the custom paged attention kkernels (#1066) 3 săptămâni în urmă
_ipex_ops.py 6951928522 xpu: bump IPEX to 2.3, support GQA (#1042) 4 săptămâni în urmă
connections.py c6c91edab7 ci: update & overhaul test units (#769) 2 luni în urmă
constants.py 2f61644f6e SPMD optimizations (#824) 2 luni în urmă
py.typed 1c988a48b2 fix logging and add py.typed 1 an în urmă
scalar_type.py f1d0b77c92 [0.6.0] Release Candidate (#481) 4 luni în urmă
version.py cbd51a208a ci: bump to 0.6.5 (#964) 1 lună în urmă