DeepSpeed 只需单击一下即可启用类似 ChatGPT 的模型训练,提供比 SOTA RLHF 系统快 15 倍的速度,并在所有规模上实现前所未有的成本降低
LLaVA:大型语言和视觉助手;LLaVA 代表了一种新颖的端到端训练大型多模态模型,该模型结合了视觉编码器和 Vicuna 以实现通用视觉和语言理解,实现了令人印象深刻的聊天功能,模仿多模态 GPT-4 的精神,并在科学 QA 上设置了新的最先进的准确性。
M6是中文社区最大的跨模态预训练模型,模型参数达到十万亿以上,具有强大的多模态表征能力。M6通过将不同模态的信息经过统一加工处理,沉淀成知识表征,为各个行业场景提供语言理解、图像处理、知识表征等智能服务
唯一支持您的生成式 AI 策略的全栈平台——包括微调、提示工程、安全、模型安全、模型评估和企业应用程序。
HuggingFace推出的BigScience 大型开放科学开放存取多语言语言模型
MLC LLM 是一种通用解决方案,它允许将任何语言模型本地部署在一组不同的硬件后端和本地应用程序上,此外还有一个高效的框架,供每个人进一步优化自己用例的模型性能。一切都在本地运行,无需服务器支持,并通过手机和笔记本电脑上的本地 GPU 加速
使用世界一流的语言 AI 构建令人难以置信的产品;Cohere 的大型语言模型释放出强大的功能,如内容生成、摘要和搜索——所有这些都是大规模的。