AlpinDale 9bbc75d2e3 wip há 6 meses atrás
..
__init__.py 5884e0b904 add bitnetforcausallm support há 6 meses atrás
arctic.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
baichuan.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
bitnet.py 9bbc75d2e3 wip há 6 meses atrás
bloom.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
chatglm.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
commandr.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
dbrx.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
decilm.py 50b7c13db0 refactor: attention selector (#552) há 6 meses atrás
deepseek.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
falcon.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
gemma.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
gpt2.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
gpt_bigcode.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
gpt_j.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
gpt_neox.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
internlm2.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
jais.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
llama.py ac79d115b3 add guards for prefix caching, fp8, chunked, etc há 6 meses atrás
llama_embedding.py 50b7c13db0 refactor: attention selector (#552) há 6 meses atrás
llava.py 24a2d9c2c8 minor llava refactoring há 6 meses atrás
minicpm.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
mixtral.py ac79d115b3 add guards for prefix caching, fp8, chunked, etc há 6 meses atrás
mixtral_quant.py ac79d115b3 add guards for prefix caching, fp8, chunked, etc há 6 meses atrás
mpt.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
olmo.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
opt.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
orion.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
phi.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
phi3_small.py 696f2cd59c add phi3_small support with blocksparse attention há 6 meses atrás
qwen.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
qwen2.py ac79d115b3 add guards for prefix caching, fp8, chunked, etc há 6 meses atrás
qwen2_moe.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
stablelm.py 656459fd84 make fp8_e4m3 work on nvidia há 6 meses atrás
starcoder2.py ac79d115b3 add guards for prefix caching, fp8, chunked, etc há 6 meses atrás
vlm_base.py f970f3f3fb add base class for VLMs há 6 meses atrás
xverse.py ac79d115b3 add guards for prefix caching, fp8, chunked, etc há 6 meses atrás