Skip to content

windshadow233/tiny-llm-training

Repository files navigation

24G显存微调一个迷你大语言模型

为什么想写一个这样的仓库?

当下一些高校计算资源匮乏,严重落后于业界,实验室内所做研究多为屎上雕花,无法与业界接轨,让一些想接触前沿技术(如LLM)的学生只能望而却步。

不甘于此,我想在有限的资源下学习一些相关的算法,遂(炼丹人的事怎么能叫骗呢)借了实验室的24G显存的GPU,尝试微调一个迷你大语言模型,试图搞清楚训练的流程。

相关博客

About

24G 显存训练(微调)一个小型大语言模型!(手搓训练流程)

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages