Zhihao Shen 30e1ef0f79 minify torch.torch.int32 to torch.int32 (#1237) преди 2 месеца
..
layers 8c20cfef49 [Rotary] Support qkv block layout from GQA преди 3 месеца
losses c7f32a8409 [CrossEntropy] Support precomputed LSE преди 3 месеца
models 30e1ef0f79 minify torch.torch.int32 to torch.int32 (#1237) преди 2 месеца
modules 3f1b4d38e7 Fix: check the type of max_seqlen_k instead of checking max_seqlen twice (#1127) преди 4 месеца
ops 8c20cfef49 [Rotary] Support qkv block layout from GQA преди 3 месеца
utils 320fb59487 Update citation преди 6 месеца
__init__.py 418d677192 Bump to v2.6.3 преди 4 месеца
bert_padding.py 30e1ef0f79 minify torch.torch.int32 to torch.int32 (#1237) преди 2 месеца
flash_attn_interface.py 83e41b3ca4 Add custom ops for compatibility with PT Compile (#1139) преди 2 месеца
flash_attn_triton.py f1a73d0740 Run isort and black on python files преди 1 година
flash_attn_triton_og.py f1a73d0740 Run isort and black on python files преди 1 година
flash_blocksparse_attention.py cdbbe844b1 minor changes to unpad_input test util func преди 3 месеца
flash_blocksparse_attn_interface.py f1a73d0740 Run isort and black on python files преди 1 година
fused_softmax.py f1a73d0740 Run isort and black on python files преди 1 година
pyproject.toml 73bd3f3bbb Move pyproject.toml to flash-attn and tests dir to avoid PEP 517 преди 1 година