在这项新工作中,研究人员为了弥补大型预训练模型家族中(比如GPT-3、DALL-E等)中文数据集和中文模型的缺失,构建了一个最大的中文多模态预训练数据集M6-Corpus, 该数据集包含超过 1.9 TB图像和 292GB 文本 欧洲杯-米乐M6官方网站,涵盖了广泛的领域,并提出了一种称为“M6”(Multi-Modality to MultiModality Multitask Mega-transformer)的跨模态预训练方法,以便对单模态和多模态的数据进行统一的预训练。
Copyright © 2002-2024 米乐·M6(China)半导体电子元器有限公司 版权所有 非商用版本 备案号: