.. |
__init__.py
|
5884e0b904
add bitnetforcausallm support
|
6 місяців тому |
arctic.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
baichuan.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
bitnet.py
|
9bbc75d2e3
wip
|
6 місяців тому |
bloom.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
chatglm.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
commandr.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
dbrx.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
decilm.py
|
50b7c13db0
refactor: attention selector (#552)
|
6 місяців тому |
deepseek.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
falcon.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
gemma.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
gpt2.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
gpt_bigcode.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
gpt_j.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
gpt_neox.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
internlm2.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
jais.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
llama.py
|
ac79d115b3
add guards for prefix caching, fp8, chunked, etc
|
6 місяців тому |
llama_embedding.py
|
50b7c13db0
refactor: attention selector (#552)
|
6 місяців тому |
llava.py
|
24a2d9c2c8
minor llava refactoring
|
6 місяців тому |
minicpm.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
mixtral.py
|
ac79d115b3
add guards for prefix caching, fp8, chunked, etc
|
6 місяців тому |
mixtral_quant.py
|
ac79d115b3
add guards for prefix caching, fp8, chunked, etc
|
6 місяців тому |
mpt.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
olmo.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
opt.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
orion.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
phi.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
phi3_small.py
|
696f2cd59c
add phi3_small support with blocksparse attention
|
6 місяців тому |
qwen.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
qwen2.py
|
ac79d115b3
add guards for prefix caching, fp8, chunked, etc
|
6 місяців тому |
qwen2_moe.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
stablelm.py
|
656459fd84
make fp8_e4m3 work on nvidia
|
6 місяців тому |
starcoder2.py
|
ac79d115b3
add guards for prefix caching, fp8, chunked, etc
|
6 місяців тому |
vlm_base.py
|
f970f3f3fb
add base class for VLMs
|
6 місяців тому |
xverse.py
|
ac79d115b3
add guards for prefix caching, fp8, chunked, etc
|
6 місяців тому |