武汉源创会,4月20一起学习大模型技术
时隔 6 年,武汉源创会回归啦!
武汉的朋友们快来入坐🍕
这一次我们聚焦大模型技术
邀请来自武智院、华为、京东、清华的业界专家
为大家带来大模型技术的深度解读
🌟 活动简介
1. 主题介绍
相较于 2023 年各路大模型破土出世的景象,2024 年大模型市场上的较量正拉开新的篇章,如何拓展大模型的应用场景?如何提高模型性能,减少资源消耗?如何在有限的计算资源条件下能够有效地训练和部署大型机器学习模型等问题带来了巨大的挑战。
本次技术沙龙将聚焦于大模型竞技与性能优化主题,将邀请业界知名专家,分享他们在大规模模型训练、推理加速、模型压缩、应用等方面的最佳实践和经验,并展示一些大模型应用的成功案例,探讨其背后的技术挑战和解决方案。
🌟 议程设置
演讲议题:大模型分析与趋势展望
演讲嘉宾:刘昊-武汉人工智能研究院创投转化部总监
议题简介:以多模态大模型为代表的人工智能技术已经成为新质生产力的重要组成力量,大模型正在推动人工智能从“可用”走向“好用”,面临场景需求碎片化、投入成本高、行业专家数据较少等落地痛点,大模型的加速了人工智能产业应用的进程, 实现从“作坊式”到“工业化”的生产范式转变,加速各行各业的创新性深度融合,催生新技术、新产品、新业态和新模式。在大算力、大模型、大数据的驱动下,持续赋能千行百业。
演讲议题:大模型优化技术在昇腾上的应用与落地
演讲嘉宾:王玺源-华为高级软件工程师 李树桥-软件工程师
议题简介:
本议程将介绍昇腾对于大模型训练、推理加速、模型压缩上的技术特点和技术优势。其中包括三部分内容:
1. 各种大模型加速/优化库的昇腾原生支持
在昇腾上如何使用 DeepSpeed 为模型“瘦身”和“加速”
如何使用 bitsandbytes 在昇腾上支持大模型量化
2. 昇腾自研大模型优化技术
昇腾提供 AscendSpeed 加速库,使能客户大模型业务快速迁移至昇腾设备,并且支持昇腾专有算法,确保开箱可用
3. 昇腾基于云原生的推理加速、生产落地技术
例如 Volcano 对于昇腾 NPU 的调度支持、算力切分等
演讲议题:大模型应用落地的产品方案与最佳实践
演讲嘉宾:赵建新-京东云产品总监
议题简介:大模型技术已步入应用落地的最后一公里,大模型智能体(Agent)是大模型应用落地的关键方向,通过在大模型的基础上增加环境感知、规划决策和行动执行等能力,能够最大限度地发挥企业现有数字化系统的存量优势,并赋予大模型的增量价值。京东在自身业务场景中已经落地大量基于大模型的应用,积累了诸多实践经验。本议题给出京东在这方面的整体思考及实践案例。
演讲议题:使用 Serverless 推理引擎 提升大模型推理效能
演讲嘉宾:林家桢-Gitee AI 专家顾问、清华大学高性能计算所
议题简介:大模型原生应用正在爆发,未来推理算力的需求可能将达到训练算力需求的数十余倍,据Gartner数据,2023年70%的AI应用基于 Serverless 技术开发。在实际生产中,越来越多的AI业务,比如自动驾驶、NLP等,也正在转向容器化部署。云原生理念是是否有机会帮助大模型降本增效?在这个过程中又遇到了哪些挑战?
演讲议题:昇思 MindSpore 技术创新进展和超大规模AI实践
演讲嘉宾:钱驾宏-华为 MindSpore 研发工程师
议题简介:
以大模型、大数据、大算力驱动的超大规模 AI 正成为下一代人工智能的突破口,也是迈向通用强人工智能最有潜力的技术方向之一。昇思 MindSpore 构建了多维度混合并行、多维度内存优化、图算融合等关键技术,支撑了 20+ 大模型的训练。并在 2021 年联合高校及科研院所协同创新,发布了鹏程盘古 NLP 大模型、中科院紫东太初图文音多模态大模型、鹏程神农蛋白质结构大模型、武大珞珈遥感大模型等。本次分享分享基于昇思 MindSpore 的大模型的最新进展和成果,介绍昇思 MindSpore 超大规模 AI 训练、微调、压缩、部署全流程关键技术,如何使用这些关键技术在昇腾大集群上训练大模型,以及昇思 MindSpore 上的大模型如何助力产业发展。
活动报名参与方式,扫一扫