Jiahong 的个人博客

凡事预则立,不预则废


  • Home

  • Tags

  • Archives

  • Navigation

  • Search

LLMTag

NLP——Not-Just-Scaling-Laws

NLP——将传统强化学习Trick用到LLM中的思考

NLP——MHA2MLA(Partial-RoPE)

NLP——Megatron-LM原始论文解读-第一篇

NLP——Megatron-LM原始论文解读-第二篇

NLP——Megatron-LM原始论文解读-第三篇

NLP——GShard

NLP——DeepCoder

NLP——DeepScaleR

NLP——AReaL

1…567…16
Joe Zhou

Joe Zhou

Stay Hungry. Stay Foolish.

618 posts
52 tags
GitHub E-Mail
© 2026 Joe Zhou
Powered by Hexo
|
Theme — NexT.Gemini v5.1.4