本地部署chatgpt之老虎中文大模型

介绍

TigerBot 是一个多语言多任务的大规模语言模型(LLM)。根据 OpenAI InstructGPT 论文在公开 NLP 数据集上的自动评测,TigerBot-7B 达到 OpenAI 同样大小模型的综合表现的 96%,并且这只是我们的 MVP,在此我们将如下探索成果开源:

模型:TigerBot-7B, TigerBot-7B-base,TigerBot-180B (research version),
代码:基本训练和推理代码,包括双卡推理 180B 模型的量化和推理代码,
数据:预训练 100G,从 2TB 过滤后的数据中经过去噪去重清洗而得;监督微调 1G 或 100 万条数据,按比例涵盖用户指令常见的 10 大类 120 小类任务,
API: chat, plugin, finetune, 让用户能在半小时内无代码的训练和使用专属于自己的大模型和数据,
领域数据:涵盖金融,法律,百科,广邀大模型应用开发者,一起打造中国的世界级的应用。
我们在 BLOOM 基础上,在模型架构和算法上做了如下优化:

指令完成监督微调的创新算法以获得更好的可学习型(learnability),
运用 ensemble 和 probabilistic modeling 的方法实现更可控的事实性(factuality)和创造性(generativeness),
在并行训练上,我们突破了 deep-speed 等主流框架中若干内存和通信问题,使得在千卡环境下数月无间断,
对中文语言的更不规则的分布,从 tokenizer 到训练算法上做了更适合的算法优化。

本文链接:https://my.lmcjl.com/post/9763.html

展开阅读全文

4 评论

留下您的评论.