AlpinDale 201db10f02 models: add support for Phi3 MoE před 1 měsícem
..
fused_moe 201db10f02 models: add support for Phi3 MoE před 1 měsícem
mamba f1d0b77c92 [0.6.0] Release Candidate (#481) před 4 měsíci
ops 8a71788372 Add OLMoE (#772) před 3 měsíci
__init__.py 07aa2a492f upstream: add option to specify tokenizer před 1 rokem
activation.py f1d0b77c92 [0.6.0] Release Candidate (#481) před 4 měsíci
layernorm.py bfc3da41ae feat: add torch.compile for GemmaRMSNorm (#898) před 1 měsícem
linear.py 6bdff60aab quant: support pre-quanted bitsandbytes checkpoints (#961) před 1 měsícem
logits_processor.py 0e558e9b2f fix: loading chameleon model with TP>1 (#695) před 4 měsíci
pooler.py f1d0b77c92 [0.6.0] Release Candidate (#481) před 4 měsíci
rejection_sampler.py e3a53712f2 fix: mlpspeculator with padded vocab (#669) před 4 měsíci
rotary_embedding.py 201db10f02 models: add support for Phi3 MoE před 1 měsícem
sampler.py 0dfa6b60ec core: support logprobs with multi-step scheduling (#963) před 1 měsícem
spec_decode_base_sampler.py 09b82f9963 feat: Add support for GPU device selection in SpecDecodeBaseSampler (#629) před 4 měsíci
typical_acceptance_sampler.py f1d0b77c92 [0.6.0] Release Candidate (#481) před 4 měsíci
vocab_parallel_embedding.py 9ff3239ce2 fix: gguf vocab embddings in TP (#958) před 1 měsícem