Skip to main content Start main content

理大重塑 AI 训练范式 大幅降低成本并普及研究

2025年10月23日

科研与创新发展 理大人工智能高等研究院

理大人工智能高等研究院(PAAI)的研究团队在生成式人工智能(GenAI)领域取得多项关键技术突破,理大高级副校长(研究及创新)赵汝恒教授(左)与领导该研究项目的PAAI执行院长、计算器及数学科学学院副院长(环球事务)及电子计算学系教授杨红霞教授(右)出席新闻发布会。

赵汝恒教授指,理大新成立的PAAI致力加速人工智能技术在各个重点领域的深度融合,冀巩固理大在相关领域的领先地位,并助力推动香港成为全球生成式人工智能发展的枢纽。

杨红霞教授表示,团队创新提出的「协作式生成人工智能」模式可助全球学术人员投入 GenAI 研究,汇聚更多力量创新。


香港理工大学(理大)人工智能高等研究院(PAAI)研究团队在生成式人工智能(GenAI)领域取得多项关键技术突破。团队创新提出「协作式生成人工智能(Co-Generative AI)」模式,将 AI 训练从传统集中式转向分布式,不仅大幅降低训练成本、保障数据隐私,更打破资源壁垒,让全球更多研究机构得以参与 AI 研发,为全球人工智能创新注入强劲动力。

当前,GenAI领域面临三重核心制约:基础模型训练需耗费巨量计算资源,仅少数机构可以负担,导致学术界难以直接参与基础模型的训练、领域专属知识与数据无法融入模型;隐私保护与版权归属问题使医疗、金融等敏感数据难以用于训练;基础模型难以及时吸收新知识,每次重新训练需「天文数字级」资源,严重阻碍技术迭代。针对这些痛点,理大 PAAI 团队从「低成本训练」与「分布式融合」两大方向展开攻关,在理论证明和应用落地方面取得突破性成果。

理大成为业界首个开源发布「端到端FP8低比特训练全套方案」(涵盖预训练及后训练)的大学团队,该技术打破全球基础模型以BF16精度训练的主流格局,是全球少数掌握该核心技术的研究团队之一。与BF16相比,FP8核心优势体现在多方面:训练速度提高逾两成、显存峰值占用减少逾一成、成本大幅下降;整合「持续预训练」、「监督式微调」和「强化学习」,训练效果媲美BF16模型且训练时间和显存占用进一步压缩。团队已启动更低成本的FP4精度训练探索,相关成果已发表于学术论文1;经测试,其在医疗的诊断和推理上超过目前业界发布同等尺寸最优模型领域2;在科研智慧体领域(Research Agent)中的任务复杂度,泛化能力和生成报告质量上均取得重大突破3

传统基础模型遵循「缩放定律」(参数越多、知识越广、性能越强),但集中式训练需耗费百万计GPU小时,仅少数机构可以负担。理大团队研发的「InfiFusion模型融合技术」则实现关键突破:仅需数百GPU小时,即可融合出传统需100万至200GPU小时训练的大模型;团队更以实例验证效率 —— 160GPU小时完成4个尖端模型融合4-5,不仅避免了单个尖端模型传统训练需要的百万计GPU小时,且融合后模型在多项权威测试中性能显著优于原始模型。

此外,这项由Thinking Machines Lab非常倡导模型融合的理念,被理大团队首次从理论上验证了可行性。研究团队通过严谨的数学推导,提出了「模型融合缩放定律」(Model Merging Scaling Law),这意味着通往通用人工智能(AGI)可能还有另一条途径理大 PAAI 执行院长、计算器及数学科学学院副院长(环球事务)及电子计算学系教授杨红霞教授指出:「以超低资源实现基础模型训练,加上高效模型融合,可助全球学术人员投入GenAI研究,汇聚更多力量创新。」

在技术落地层面,理大团队已取得多领域实质进展。医疗领域中,团队训练出性能领先的医疗基础大模型,并研发专属「癌症GenAI—— 在同规模模型中性能最佳,可快速积累高质量医疗数据、直接对接医疗设备,用于癌症个性化治疗规划,目前正联合复旦大学附属华山医院、中山大学肿瘤防治中心、山东省肿瘤医院及香港伊利沙伯医院推动合作与临床落地。此外,团队在智能体AIAgentic AI)领域亦有突破,该技术可作为研究生学术助手协助论文撰写与审阅,同时作为多模态专利检索引擎为创新研发提供高效支持。

理大高级副校长(研究及创新)赵汝恒教授表示:「人工智能是加速培育新质生产力的核心,理大新成立的PAAI致力加速人工智能技术在各个重点领域的深度融合,并针对不同行业开发具备专业领域知识的人工智能模型。此举不但能巩固理大在相关领域的领先地位,更将助力推动香港成为全球生成式人工智能发展的枢纽。

杨红霞教授领导的研究项目分别获得研究资助局「2025/26年度主题研究计划」、香港特区政府创新科技署「产学研1+计划」及数码港「人工智能资助计划」资助,标志香港在全球AI创新领域迈出坚实步伐,为AI技术普惠化与产业落地注入新动能。

 

1InfiR2: A Comprehensive FP8 Training Recipe for Reasoning-Enhanced Language Models,  https://arxiv.org/html/2509.22536v3

2InfiMed: Low-Resource Medical MLLMs with Advancing Understanding and Reasoning, https://arxiv.org/html/2505.23867

3InfiAgent: Self-Evolving Pyramid Agent Framework for Infinite Scenarios, https://arxiv.org/html/2509.22502

4InfiGFusion: Graph-on-Logits Distillation via Efficient Gromov-Wasserstein for Model Fusion, https://arxiv.org/html/2505.13893

5InfiFPO: Implicit Model Fusion via Preference Optimization in Large Language Models, https://arxiv.org/abs/2505.13878

6Model Merging Scaling Laws in Large Language Models, https://arxiv.org/html/2509.24244

 

******


详情查询

郑秀贤女士

公共事务副经理

详情查询

吕文蕙女士

公共事务高级经理

您的浏览器不是最新版本。如果继续浏览本网站,部分页面未必能够正常运作。

建议您更新至最新版本或选用其他浏览器。您可以按此连结查看其他相容的浏览器。