DeepSpeed 只需单击一下即可启用类似 ChatGPT 的模型训练,提供比 SOTA RLHF 系统快 15 倍的速度,并在所有规模上实现前所未有的成本降低
HuggingFace推出的BigScience 大型开放科学开放存取多语言语言模型
WuDao 是迄今为止世界上最大的预训练语言模型。该模型是用 FastMoE 训练的,FastMoE 是 BAAI 自己开发的一种快速混合专家 (MoE) 训练系统,有 1.75 万亿个参数
MiniGPT-4 是一个发布在 GitHub 上的开源项目,用于演示 AI 系统中的视觉语言功能。它可以做的一些例子包括生成图像描述、根据图像编写故事,甚至仅从绘图创建网站。
该存储库包含 Stability AI 正在进行的 StableLM 系列语言模型开发,并将不断更新新的检查点。以下提供了所有当前可用模型的概述。
M6是中文社区最大的跨模态预训练模型,模型参数达到十万亿以上,具有强大的多模态表征能力。M6通过将不同模态的信息经过统一加工处理,沉淀成知识表征,为各个行业场景提供语言理解、图像处理、知识表征等智能服务
科大讯飞推出的新一代认知智能大模型,拥有跨领域的知识和语言理解能力,能够基于自然对话方式理解与执行任务。从海量数据和大规模知识中持续进化,实现从提出、规划到解决问题的全流程闭环。