新华通讯社主管

首页 >> 正文

腾讯混元宣布大语言模型和3D模型正式开源
2024-11-07 记者 郭倩 来源:经济参考网

  日前,腾讯混元宣布最新的MoE模型“混元Large”以及混元3D生成大模型“Hunyuan3D-1.0”正式开源,支持企业及开发者精调、部署等不同场景的使用需求,可在HuggingFace、Github等技术社区直接下载,免费可商用。

  MoE(Mixture of Experts),即混合专家模型,是目前国内外主流的大模型结构。2024年年初,腾讯混元就宣布在国内率先采用MoE架构模型,总体性能比上一代Dense模型提升50%。此后,腾讯混元推出基于MoE架构的多模态理解大模型以及基础模型“混元turbo”,在性能、效果、速度等多个领域表现优越。

  此外,此次腾讯混元开源的3D生成大模型 Hunyuan3D-1.0 ,解决了现有的3D生成模型在生成速度和泛化能力上存在不足的问题,可以帮助3D创作者和艺术家自动化生产3D资产。该模型具有强大泛化能力和可控性,可重建各类尺度物体,大到建筑,小到工具花草。经过定性、定量多个维度的评估,腾讯混元3D生成大模型的生成质量已达到开源模型的先进水平。

  据悉,本次开源是腾讯混元继文生图模型后持续开放的一大举措。两个模型均属腾讯自研,在架构、算法、数据等方面有独特创新。目前,两个模型均已经在腾讯业务场景中落地应用,经过实践的检验,是面向实用场景的应用级大模型。腾讯云TI平台和高性能应用服务HAI也开放接入这两个模型,为模型的精调、API调用及私有化部署提供一站式服务。

凡标注来源为“经济参考报”或“经济参考网”的所有文字、图片、音视频稿件,及电子杂志等数字媒体产品,版权均属《经济参考报》社有限责任公司,未经书面授权,不得以任何形式刊载、播放。获取授权

《经济参考报》社有限责任公司版权所有 本站所有新闻内容未经协议授权,禁止转载使用

新闻线索提供热线:010-63074375 63072334 报社地址:北京市宣武门西大街57号

JJCKB.CN 京ICP备18039543号