4月2日消息,腾讯云副总裁、腾讯混元大模型负责人刘煜宏表示,多模态大模型将重构内容产业,基于多模态的应用也会百花齐放。
据介绍,腾讯混元大模型技术架构已升级为混合专家模型(MoE)架构,参数规模达万亿,擅长处理复杂场景和多任务场景。中文整体表现上也处于业界领先水平,尤其在数学、代码、逻辑推理和多轮对话中性能表现卓越。
同时,该大模型还提供不同尺寸的模型,适应更多的需要低成本和高推理性能的应用场景。
刘煜宏还透露,混元目前正积极发展多模态模型,进一步加强文生图、文生3D以及文/图生视频能力。
据悉,2023年9月,在2023腾讯全球数字生态大会上,腾讯混元大模型正式亮相,并宣布通过腾讯云对外开放。