Histórico de Commits

Autor SHA1 Mensagem Data
  GAOXinyu 0cb595ad94 [bugfix] handle_x not define when using checkpoint_lvl = 2 (#502) há 1 ano atrás
  Tri Dao f1a73d0740 Run isort and black on python files há 1 ano atrás
  Xuechen Li bb4cded17b support when num_heads is not divisible by world_size; resolves #459 (#461) há 1 ano atrás
  Tri Dao cb0daccc41 [FusedDense] Allow Row/ColumnParallelLinear to have uneven split há 1 ano atrás
  Tri Dao bcfa7c9751 [FusedDense] Run black on fused_dense.py há 1 ano atrás
  Tri Dao b630aef53f Implement GatedMlp há 1 ano atrás
  Tri Dao 6f6e9a9aaf [FusedDense] Enable sqrelu activation in FusedMLP há 1 ano atrás
  Tri Dao dc08ea1c33 Support H100 for other CUDA extensions há 1 ano atrás
  Tri Dao 88173a1aaf [FusedDense] Support relu, rename FusedDenseGeluDense -> FusedMLP há 1 ano atrás
  Tri Dao 93383bd55b [TP] Implement TensorParallel without sequence parallel há 1 ano atrás
  Tri Dao 1ec09ebd90 [FusedDense] Limit matrix dims to 2M (instead of 64k) há 1 ano atrás
  Tri Dao 65b4064b2a [FusedDense] Kick off input all_gather before weight dtype conversion há 1 ano atrás
  Tri Dao a8cfe51551 Implement Tensor Parallel for transformer Block há 2 anos atrás
  Tri Dao 226a1b721d Implement TensorParallel for FusedDense and FusedDenseGeluDense há 2 anos atrás
  Tri Dao e68ebbe89a Simplify FusedDense há 2 anos atrás
  Tri Dao d4b320b31f Add MLP, MHA, Block, Embedding modules há 2 anos atrás
  Tri Dao fa6d1ce44f Add fused_dense and dropout_add_layernorm CUDA extensions há 2 anos atrás