AlpinDale fa84f8102e kernels: split marlin kernels for faster compile, fix MoE, temporarily remove HQQ (#1119) před 1 měsícem
..
__init__.py a5bfc2bc3d VLM: add support for LLaVA-Onevision model (#1100) před 1 měsícem
arctic.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
baichuan.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
bart.py a985143768 core: add cuda graph support for encoder-decoder models (#1051) před 2 měsíci
blip.py 7ce3174039 VLM: refactor blip models to support composite weight loading (#1098) před 1 měsícem
blip2.py 7ce3174039 VLM: refactor blip models to support composite weight loading (#1098) před 1 měsícem
bloom.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
chameleon.py 651678d2df VLM: use `SequenceData.from_token_counts` to create dummy data (#1093) před 1 měsícem
chatglm.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
clip.py 80be38ca6f chore: expose phi3_v num_crops as an mm_processor_kwargs (#1117) před 1 měsícem
commandr.py 135dfd648b fix: LoRA support for Cohere and Jamba models (#1004) před 2 měsíci
dbrx.py b65449b5ad moe: refactor DBRX experts to support FusedMoE (#1095) před 1 měsícem
decilm.py 9022c6d869 remove progress_bar imports před 4 měsíci
deepseek.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
deepseek_v2.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
eagle.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
exaone.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
falcon.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
fuyu.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
gemma.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
gemma2.py b33cf04386 quants: add bitsandbytes support for gemma2 model (#1026) před 2 měsíci
gpt2.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
gpt_bigcode.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
gpt_j.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
gpt_neox.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
granite.py 11f49b5341 fix: granite logit scale in logit computation (#1054) před 2 měsíci
idefics2_vision_model.py f1d0b77c92 [0.6.0] Release Candidate (#481) před 6 měsíci
interfaces.py 0b8b407b6d feat: support profiling with multiple multi-modal inputs per prompt (#712) před 6 měsíci
intern_vit.py f56d6b396a vlm: fallback to SDPA for ViT models on CPU backend (#982) před 2 měsíci
internlm2.py 7632f91429 fix: InternLM2 model with Tensor Parallel (#980) před 2 měsíci
internvl.py 91d03c04d2 VLM: refactor composite weight loading logic (#1097) před 1 měsícem
jais.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
jamba.py 135dfd648b fix: LoRA support for Cohere and Jamba models (#1004) před 2 měsíci
llama.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
llama_embedding.py 9022c6d869 remove progress_bar imports před 4 měsíci
llava.py 91d03c04d2 VLM: refactor composite weight loading logic (#1097) před 1 měsícem
llava_next.py 7ce3174039 VLM: refactor blip models to support composite weight loading (#1098) před 1 měsícem
llava_next_video.py 91d03c04d2 VLM: refactor composite weight loading logic (#1097) před 1 měsícem
llava_onevision.py a5bfc2bc3d VLM: add support for LLaVA-Onevision model (#1100) před 1 měsícem
mamba.py 3bb0f07461 chore: rename `task_handler` to `worker` (#985) před 2 měsíci
mamba_cache.py a113309876 kernel: add meta functions for ops to prevent graph breaks (#1019) před 2 měsíci
medusa.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
minicpm.py ce7b602f03 model: add support for MiniCPM-3 (#1044) před 2 měsíci
minicpm3.py ce7b602f03 model: add support for MiniCPM-3 (#1044) před 2 měsíci
minicpmv.py 651678d2df VLM: use `SequenceData.from_token_counts` to create dummy data (#1093) před 1 měsícem
mixtral.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
mixtral_quant.py fa84f8102e kernels: split marlin kernels for faster compile, fix MoE, temporarily remove HQQ (#1119) před 1 měsícem
mlp_speculator.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
molmo.py acc0c727c8 vlm: add support for molmo vision model (#1069) před 2 měsíci
mpt.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
na_vit.py 9f3e7c86e2 feat: add fused Marlin MoE kernel (#934) před 2 měsíci
nemotron.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
olmo.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
olmoe.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
opt.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
orion.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
paligemma.py 91d03c04d2 VLM: refactor composite weight loading logic (#1097) před 1 měsícem
persimmon.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
phi.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
phi3.py ec17b6c4d0 fix: Phi3.5 Mini and MoE LoRA inference (#1070) před 2 měsíci
phi3_small.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
phi3v.py 80be38ca6f chore: expose phi3_v num_crops as an mm_processor_kwargs (#1117) před 1 měsícem
phimoe.py ec17b6c4d0 fix: Phi3.5 Mini and MoE LoRA inference (#1070) před 2 měsíci
pixtral.py 651678d2df VLM: use `SequenceData.from_token_counts` to create dummy data (#1093) před 1 měsícem
qwen.py 651678d2df VLM: use `SequenceData.from_token_counts` to create dummy data (#1093) před 1 měsícem
qwen2.py c90abcc603 VLM: add pipeline parallelism support for Qwen2-VL (#1103) před 1 měsícem
qwen2_moe.py 5224389dae chore: skip loading extra bias for qwen2 moe GPTQ (#1011) před 2 měsíci
qwen2_vl.py c90abcc603 VLM: add pipeline parallelism support for Qwen2-VL (#1103) před 1 měsícem
siglip.py a5bfc2bc3d VLM: add support for LLaVA-Onevision model (#1100) před 1 měsícem
solar.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
stablelm.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
starcoder2.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci
ultravox.py 18e0b0e932 chore: support loading weights by ID within models (#1116) před 1 měsícem
utils.py 91d03c04d2 VLM: refactor composite weight loading logic (#1097) před 1 měsícem
xverse.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 2 měsíci