Historial de Commits

Autor SHA1 Mensaje Fecha
  Tri Dao abbc131173 [LayerNorm] Switch from CUDA to Triton implementation hace 1 año
  Tri Dao f1a73d0740 Run isort and black on python files hace 1 año
  Tri Dao 75e334d407 [MLP] Add ParallelMLP hace 1 año
  Tri Dao b3177dfaf6 [GPT] Enable FlashAttention for GPT-J hace 1 año
  Tri Dao 6fc1e07da2 [Block] Re-enable DropPath hace 1 año
  Tri Dao 4f285b3547 FlashAttention-2 release hace 1 año
  ljss 8e44c0eefb Fix a bug hace 1 año
  Federico Berto 3889ba168b [BugFix] cannot unpack non-iterable NoneType object hace 1 año
  Tri Dao ba2fe7f378 [Gen] Move allocate_inference_cache to within the model hace 1 año
  Tri Dao 96d10f6545 Implement LLaMa hace 1 año
  Tri Dao 393882bc08 [LayerNorm] Implement LN with parallel residual, support dim 8k hace 1 año
  Tri Dao 4d87e4d875 Implement GPT-J hace 1 año
  Tri Dao 88173a1aaf [FusedDense] Support relu, rename FusedDenseGeluDense -> FusedMLP hace 2 años
  Tri Dao 780e8eeabb [ViT] Support timm checkpoint, add tests hace 2 años
  Tri Dao ef085cfcda [ViT] Fix extra norm_0, use new LN order in Block hace 2 años
  Tri Dao ff34123bd4 Reorder LN in Block, support OPT hace 2 años
  Tri Dao 93383bd55b [TP] Implement TensorParallel without sequence parallel hace 2 años
  Tri Dao a8cfe51551 Implement Tensor Parallel for transformer Block hace 2 años
  Tri Dao 5fb6df0e04 Implement BERT hace 2 años
  Tri Dao d4b320b31f Add MLP, MHA, Block, Embedding modules hace 2 años