.. |
__init__.py
|
fa15bad2ea
chore: minor AMD fixes
|
5 månader sedan |
arctic.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
baichuan.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
bloom.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
chameleon.py
|
a0d031efcc
feat: initial text-to-text support for Chameleon model
|
5 månader sedan |
chatglm.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
clip.py
|
e26a4ac698
chore: avoid loading the unused layers and init the VLM up to the required feature space
|
5 månader sedan |
commandr.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
dbrx.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
decilm.py
|
56e0b8223c
chore: add base class for LoRA-supported models
|
6 månader sedan |
deepseek.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
deepseek_v2.py
|
1efd0f89b7
feat: support FP8 for DeepSeekV2 MoE
|
5 månader sedan |
falcon.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
fuyu.py
|
e13a66925c
feat: add fuyu vision model and persimmon language model support
|
5 månader sedan |
gemma.py
|
05e45aeb53
fix: dtype mismatch for paligemma
|
5 månader sedan |
gemma2.py
|
5761ef8c35
feat: gemma-2 support
|
5 månader sedan |
gpt2.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
gpt_bigcode.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
gpt_j.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
gpt_neox.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
interfaces.py
|
e76bbe72eb
chore: handle aborted requests for jamba
|
5 månader sedan |
internlm2.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
jais.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
jamba.py
|
f5d52320da
Port mamba kernels to Aphrodite (#595)
|
5 månader sedan |
llama.py
|
00503b9fc1
feat: non-uniform quantization via `compressed-tensors` for llama
|
5 månader sedan |
llama_embedding.py
|
50b7c13db0
refactor: attention selector (#552)
|
6 månader sedan |
llava.py
|
acbdc50a71
fix: `vocab_size` field access in llava
|
5 månader sedan |
llava_next.py
|
acbdc50a71
fix: `vocab_size` field access in llava
|
5 månader sedan |
medusa.py
|
d9f4c36edd
feat: Medusa speculative decoding support (#590)
|
5 månader sedan |
minicpm.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
mixtral.py
|
00503b9fc1
feat: non-uniform quantization via `compressed-tensors` for llama
|
5 månader sedan |
mixtral_quant.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
mlp_speculator.py
|
db73f03cdc
fix: use ParallelLMHead for MLPSpeculator
|
5 månader sedan |
mpt.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
olmo.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
opt.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
orion.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
paligemma.py
|
05e45aeb53
fix: dtype mismatch for paligemma
|
5 månader sedan |
persimmon.py
|
e13a66925c
feat: add fuyu vision model and persimmon language model support
|
5 månader sedan |
phi.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
phi3_small.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
phi3v.py
|
ad68d149d8
chore: refactor and decouple phi3v image embedding
|
5 månader sedan |
qwen.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
qwen2.py
|
fb4c01740c
feat: add asymmetric TP support for Qwen2
|
5 månader sedan |
qwen2_moe.py
|
1efd0f89b7
feat: support FP8 for DeepSeekV2 MoE
|
5 månader sedan |
stablelm.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
starcoder2.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |
utils.py
|
00503b9fc1
feat: non-uniform quantization via `compressed-tensors` for llama
|
5 månader sedan |
xverse.py
|
0f4a9ee77b
quantized lm_head (#582)
|
5 månader sedan |