近日,由腾讯研究院和新加坡管理大学数字法研究中心联合主办的AI与社会研讨会——“生成式 AI 进展:应用、治理与社会影响”,在新加坡管理大学顺利召开。近百名来自中国和新加坡的业界、学界专家参加了会议,围绕生成式AI的技术趋势、产业应用、监管治理、社会伦理等议题展开分享与讨论,为构建开放共享、健康可持续的AI发展生态和AI社会探寻对策思路。
腾讯集团高级副总裁郭凯天作欢迎致辞,提出AI不仅是一次技术革命,更是一场关于人类、社会与智能之间关系的深刻变革。我们正站在一个技术飞跃的关键节点,大模型技术的快速演进正推动人工智能从“会认知”迈向“会行动”,成为人类真正的智能伙伴,并深刻重塑着社会结构与价值体系。他认为,AI应当尊重人类作为价值源头的独特性,AI的真正价值不在于“看起来多酷”,而在于“用起来多好用、多可靠”,为此,腾讯高度重视开源透明的技术生态,倡导开放、参与、监督并行的治理模式,推动建立AI时代的信任基础。他也表示,AI文明的篇章才刚刚开启,腾讯愿与各方携手,共同塑造一个技术与人文并重、开放包容的未来。
生成式AI加速发展,治理需同步演进
会议围绕“生成式AI的行业应用趋势”展开。在主旨演讲中,新加坡国立大学人工智能研究所所长Mohan Kankanhalli教授以《生成式人工智能的问题与机遇》为题,指出当前生成式AI主要涵盖三大技术路径:大语言模型(LLMs)、视觉语言模型(VLMs)以及扩散模型(Diffusion Models)。其中,扩散模型凭借出色的生成质量,在图像、音频等多模态生成领域取得了突破性成果,展现出广泛的应用前景。他认为,尽管生成式AI展现出强大潜力,但仍面临幻觉现象、缺乏精细控制和真实知识整合等技术难题,同时也引发了隐私泄露、版权争议、公平性缺失与虚假信息传播等社会风险。他强调,未来需在保障模型能力的同时,加强数据治理与责任机制,推动生成式AI在创意产业、教育与就业等领域的可持续发展。
随后,腾讯光子工作室群高级研究员柳天驰博士带来题为《语音领域生成式AI的进展与应对》的主题分享。柳博士系统介绍了语音生成技术(TTS)以及大模型赋能下在表达力与控制力方面的技术革新,展示了AI语音在音色、情感、语气、风格、方言控制等方面的最新进展。针对语音深度伪造(Deepfake)所带来的身份伪造与虚假信息传播等潜在安全风险,他还分享了音频水印、AI伪音检测等前沿技术的应用路径。
腾讯研究院资深专家、创新研究中心主任袁晓辉、新加坡管理大学Aptos Move讲席教授、计算机与信息系统学院副院长朱飞达教授,ABCDE风投机构联合创始人Bman,WIZ.AI董事长兼联合创始人陆剑锋也展开了AI行业应用趋势专题讨论。
朱飞达教授强调生成式AI的“组合性”(composability)和“协作性”是未来数字经济的重要特征。他指出,当前开源生态系统的快速崛起,大幅降低了生成式AI的使用门槛,使得企业能够基于本地数据构建透明可控的系统,助力实现数据主权与AI主权。他分享了在个性化学习系统项目中的经验,强调通过任务分解和传统算法结合,可显著提升模型准确性,并指出在DeFi等领域,无人值守的链上AI Agent已经展现出实际应用价值。他特别关注AI与Web3的结合,提出“协作智能+代币化经济”是Web3的本质,也是AI产业化与治理的重要方向。
作为投资人兼连续创业者,Bman分享了他对“超级个体”时代的观察,并高度评价DeepSeek等开源模型所释放的开发潜力。他提出AI Agent将成为下一代互联网的重要参与者,预见未来将出现“Agent社会”,Agent不仅可独立完成任务,甚至可拥有身份、财产与交易能力。他还指出当前许多创业公司仅是“大模型套壳”,缺乏护城河,因此建议初创企业尽快建立用户网络效应与商业模式壁垒。此外,他表达了对“多Agent经济”模式的期待,认为未来应通过标准协议实现Agent之间的互联协同,构建真正的Agent基础设施与生态系统。
陆剑锋以WIZ.AI的语音代理产品为例,探讨了AI Agent在实际商业场景中的可行性与限制。他认为Agent的关键在于是否能够“全自动”完成任务,而在语音领域,响应速度与幻觉控制是当前亟需攻克的挑战。他提出“用户场景优先”的创业逻辑,即围绕明确的客户需求构建产品,并通过积累高质量数据与定制化知识完成差异化竞争。他还指出,未来企业内部的组织协作也将因AI Agent的引入而发生重构,例如客服、HR等职能将同时面向人类与智能体,推动“人机共事”成为企业常态。
研讨主持人袁晓辉也提出了“AI是否正在引发流程重构”的问题。她总结指出,当前生成式AI正从“工具化”走向“系统化”,企业已开始将Agent嵌入到工作流中,重新思考人机协作的边界。她提出,尽管AI Agent尚难做到百分百精准,但现阶段的“人机共创”已足以显著提升业务效率,重要的是在技术演进的同时同步推进治理、安全与社会可接受性。
全球视野下的AI治理呼声
会议的下半场围绕“生成式AI的治理与社会影响”展开。新加坡国立大学大卫·马歇尔讲席教授、副教务长(教育创新)陈西文(Simon Chesterman)作了题为《人工智能治理的悲剧》的主旨演讲。他在演讲中指出,尽管围绕人工智能(AI)已经出现了大量伦理框架、指导方针和监管讨论,但真正有效的治理依然难以实现。
新加坡德尊律师事务所董事、新加坡管理大学数字法研究中心行业研究员Cheryl Seah作了题为《生成式人工智能:实践视角》的主题分享。许多AI治理框架的目标是引导组织在开发和使用AI解决方案时,做出能够建立用户信任的选择。这些AI治理框架和相关资料有助于组织了解在开发和使用AI解决方案过程中可能面临的风险,并在与第三方开发者或用户签订合同时(视情况而定)合理分配这些风险,同时在其AI使用政策中进行有效管理。到了2025年,一个新趋势是多个AI合同示范条款的发布——虽然这些条款主要由公共部门针对公共部门用户制定,但对于私营部门组织而言,这些条款同样具有参考价值。
“生成式AI的治理挑战”主题研讨嘉宾合影
在随后由新加坡管理大学数字法研究中心副主任Liu Han-Wei主持的圆桌讨论中,新加坡社科大学法学院讲师、教务长讲座教授Alexander Joseph Woon Wei-Ming,新加坡国立大学科技、机器人、人工智能与法律中心(TRAIL)创始人兼联席主任 Daniel Seng,新加坡管理大学杨邦孝法学院数字法研究中心高级研究员Josh Lee Kok Thong,腾讯研究院高级研究员曹建峰博士,围绕生成式AI的治理挑战进行了研讨。(邹易)