Metaseq是Meta(Facebook)开源的大规模预训练Transformer模型工具库,专为处理开放预训练Transformers(OPT)而设计,从fairseq项目分叉而来。平台支持多种AI模型集成,包括Hugging Face Transformers、Alpa Project、Colossal-AI、CTranslate2、FasterTransformer、DeepSpeed等。独特能力包括支持在不同硬件世代上部署OPT-175B等大型语言模型,提供灵活的模型部署和推理选项,支持从125M到175B参数的各种模型规模。由Meta研究团队维护,采用MIT许可证,强调社区驱动的开发方式。项目注重协作,提供全面的文档并欢迎社区贡献,为多模态和大规模AI模型的研究和应用提供了重要的开源基础设施。
数据统计
相关导航
暂无评论...