Historial de Commits

Autor SHA1 Mensaje Fecha
  GAOXinyu 0cb595ad94 [bugfix] handle_x not define when using checkpoint_lvl = 2 (#502) hace 1 año
  Tri Dao f1a73d0740 Run isort and black on python files hace 1 año
  Xuechen Li bb4cded17b support when num_heads is not divisible by world_size; resolves #459 (#461) hace 1 año
  Tri Dao cb0daccc41 [FusedDense] Allow Row/ColumnParallelLinear to have uneven split hace 1 año
  Tri Dao bcfa7c9751 [FusedDense] Run black on fused_dense.py hace 1 año
  Tri Dao b630aef53f Implement GatedMlp hace 1 año
  Tri Dao 6f6e9a9aaf [FusedDense] Enable sqrelu activation in FusedMLP hace 1 año
  Tri Dao dc08ea1c33 Support H100 for other CUDA extensions hace 1 año
  Tri Dao 88173a1aaf [FusedDense] Support relu, rename FusedDenseGeluDense -> FusedMLP hace 1 año
  Tri Dao 93383bd55b [TP] Implement TensorParallel without sequence parallel hace 1 año
  Tri Dao 1ec09ebd90 [FusedDense] Limit matrix dims to 2M (instead of 64k) hace 1 año
  Tri Dao 65b4064b2a [FusedDense] Kick off input all_gather before weight dtype conversion hace 1 año
  Tri Dao a8cfe51551 Implement Tensor Parallel for transformer Block hace 2 años
  Tri Dao 226a1b721d Implement TensorParallel for FusedDense and FusedDenseGeluDense hace 2 años
  Tri Dao e68ebbe89a Simplify FusedDense hace 2 años
  Tri Dao d4b320b31f Add MLP, MHA, Block, Embedding modules hace 2 años
  Tri Dao fa6d1ce44f Add fused_dense and dropout_add_layernorm CUDA extensions hace 2 años