Tri Dao 02541ac9e8 [CE] Assert logit_scale > 0 před 1 měsícem
..
flash_attn_triton_amd b518517cb8 [AMD] Triton Backend for ROCm (#1203) před 3 měsíci
layers 8c20cfef49 [Rotary] Support qkv block layout from GQA před 5 měsíci
losses c7f32a8409 [CrossEntropy] Support precomputed LSE před 5 měsíci
models 30e1ef0f79 minify torch.torch.int32 to torch.int32 (#1237) před 5 měsíci
modules 3f1b4d38e7 Fix: check the type of max_seqlen_k instead of checking max_seqlen twice (#1127) před 7 měsíci
ops 02541ac9e8 [CE] Assert logit_scale > 0 před 1 měsícem
utils 320fb59487 Update citation před 9 měsíci
__init__.py 5231d95fe1 Drop Pytorch 2.1 před 1 měsícem
bert_padding.py 30e1ef0f79 minify torch.torch.int32 to torch.int32 (#1237) před 5 měsíci
flash_attn_interface.py d57f826835 Expose `zero_tensors` arg in varlen functions (#1433) před 1 měsícem
flash_attn_triton.py f1a73d0740 Run isort and black on python files před 1 rokem
flash_attn_triton_og.py f1a73d0740 Run isort and black on python files před 1 rokem
flash_blocksparse_attention.py cdbbe844b1 minor changes to unpad_input test util func před 5 měsíci
flash_blocksparse_attn_interface.py f1a73d0740 Run isort and black on python files před 1 rokem
fused_softmax.py f1a73d0740 Run isort and black on python files před 1 rokem
pyproject.toml 73bd3f3bbb Move pyproject.toml to flash-attn and tests dir to avoid PEP 517 před 1 rokem