科大讯飞推出的新一代认知智能大模型,拥有跨领域的知识和语言理解能力,能够基于自然对话方式理解与执行任务。从海量数据和大规模知识中持续进化,实现从提出、规划到解决问题的...
MLC LLM 是一种通用解决方案,它允许将任何语言模型本地部署在一组不同的硬件后端和本地应用程序上,此外还有一个高效的框架,供每个人进一步优化自己用例的模型性能。一切都在本地运行,无需服务器支持,并通过手机和笔记本电脑上的本地 GPU 加速
Replicate 使部署机器学习模型变得容易。您可以使用现成的开源模型,也可以大规模部署您自己的自定义私有模型。
DeepFloyd 是 Stability AI 的一部分,是一个全新的多模态研究 AI 实验室,它发布了 IF——一种文本到图像的级联像素扩散模型。
ChatGLM(内测版)是一个具有问答、多轮对话和代码生成功能的中英双语模型,基于千亿基座 GLM-130B 开发,通过代码预训练、有监督微调等技术提升各项能力,敬请期待新能力涌现。
DeepSpeed 只需单击一下即可启用类似 ChatGPT 的模型训练,提供比 SOTA RLHF 系统快 15 倍的速度,并在所有规模上实现前所未有的成本降低
复旦大学自然语言处理实验室开发的新版MOSS 模型上线,成为国内首个插件增强的开源对话语言模型。MOSS是一个支持中英双语和多种插件的开源对话语言模型,moss-moon系列模型具有160亿参数,在FP16精度下可在单张A100/A800或两张3090显卡运行,在INT4/8精度下可在单张3090显卡运行。MOSS基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。