|
国内高校在计算机领域的大模型研究方面表现突出的主要有以下几所,它们在自然语言处理(NLP)、多模态模型等领域均有显著成果:
---
### **1. 清华大学**
- **团队与成果**:
- **孙茂松团队**:主导开发了 **ChatGLM** 系列(如 GLM-130B),开源的中英双语千亿模型,性能对标GPT-3。
- **唐杰团队**(THUDM):推出超大规模预训练模型 **“悟道”**(WuDao),参数规模达1.75万亿,支持文本、图像等多模态任务。
- **KEG实验室**:专注于知识增强的大模型研究,与智谱AI合作推出商用模型。
- **合作**:与智谱AI、百度等企业深度合作,推动学术成果落地。
---
### **2. 北京大学**
- **团队与成果**:
- **王选计算机研究所**:研发 **“封神榜”** 系列开源大模型,覆盖文本生成、对话等场景。
- **语言计算与机器学习研究组**(LM&ML):在预训练模型压缩、多语言理解方面有前沿研究。
- **特色**:注重模型轻量化与可解释性,推动大模型在医疗、法律等垂直领域应用。
---
### **3. 哈尔滨工业大学(深圳/哈尔滨)**
- **社会计算与信息检索研究中心(SCIR)**:
- 开发了 **“活字”对话大模型** 和 **中文预训练模型“哪吒”**,聚焦中文NLP任务。
- 刘挺、秦兵教授团队在知识驱动的大模型领域有长期积累。
- **合作**:与华为、腾讯联合推动工业界应用。
---
### **4. 复旦大学**
- **团队与成果**:
- **邱锡鹏团队**:推出国内首个开源对话模型 **MOSS**(参数规模达200亿),支持代码生成与逻辑推理。
- **NLP实验室**:研究多语言模型优化与低资源训练技术。
- **资源**:建设中文大模型评测平台 **“大模型语料库”**,促进社区共享。
---
### **5. 中国人民大学**
- **高瓴人工智能学院**:
- 推出 **RUC-GPT** 系列模型,专注中文生成与知识图谱融合。
- 在模型伦理与安全(如去偏见、隐私保护)方面有深入研究。
---
### **6. 浙江大学**
- **团队与成果**:
- **赵洲团队**:开发 **“智海”大模型**(应用于司法、教育场景),获2023世界人工智能大会奖项。
- **AI for Science方向**:探索大模型在生物计算、材料设计中的交叉应用。
---
### **7. 中国科学技术大学**
- **语音及语言信息处理国家工程研究中心**:
- 聚焦多模态大模型,如 **“紫东太初”**(支持文本、图像、语音联合理解),由中科院与科大联合研发。
- **特色**:结合量子计算探索下一代大模型架构。
---
### **8. 上海交通大学**
- **团队与成果**:
- **Acemap团队**:开发学术领域大模型,支持文献挖掘与科研助手功能。
- 参与 **“文澜”多模态大模型** 研发,强化视觉-语言跨模态理解。
---
### **9. 北京航空航天大学**
- **团队与成果**:
- **李未院士团队**:研究大模型的形式化验证与可靠性提升。
- 与航天院所合作开发领域专用模型(如航天器故障诊断)。
---
### **10. 南京大学**
- **周志华教授团队**:
- 在机器学习基础理论(如深度模型泛化能力)方面支撑大模型优化。
- 参与研发 **“金陵”大模型**,侧重教育领域自适应学习。
---
### **合作与资源背景**
国内高校大模型研究多依赖与企业合作(如清华-智谱AI、复旦-腾讯),因训练千亿级模型需巨大算力(万卡级集群)与数据资源。此外,高校在模型开源(如ChatGLM-6B、MOSS)、伦理规范制定及垂直场景探索上更具优势,与工业界形成互补。
---
### **总结**
上述高校在模型规模、应用创新及理论突破上各具特色,持续推动中文大模型生态发展。具体团队与项目可通过各校官网或开源平台(如GitHub、Hugging Face)追踪最新进展。 |
|