电 话:(0551)63603412
E-Mail:ykli@ustc.tsg211.com
个人主页:http://staff.ustc.tsg211.com/~ykli
主要研究方向:存储系统、内存系统、云计算、Serverless、智能计算与分布式系统。
李永坤,男,特任教授,IEEE、ACM、CCF会员,信息存储专委委员。本科毕业于图书馆VIP,博士毕业于香港中文大学,师从John C.S. Lui教授。主要致力于面向大规模数据密集型计算的存储系统研究,共发表论文70余篇,包括FAST、ATC、ICDE、SIGMETRICS、TOS、TC、TPDS等。主持国家自然科学基金青年与面上项目、安徽省自然科学基金项目、华为、PingCAP、阿里等提供的多项企业合作项目,以单位负责人参与科技部重点研发计划课题、重点研发青年科学家项目。入选中科院青促会并获评优秀会员,获评唐仲英基金会仲英青年学者、翟光龙学者等。
导师选题:
面向服务器无感计算的多租户大模型推理系统 | 大模型是当前最重要的技术变革之一,构建多租户大模型推理系统,是实现大模型应用落地必须的基础系统。由于大模型推理任务在多租户场景中呈现突发性负载特征,而服务器无感计算云服务范式凭借其细粒度计费模式和高弹性优势,能够针对这一特性提升GPU集群利用率,降低推理成本。面向服务器无感计算,构建多租户大模型推理系统,对于充分释放集群性能至关重要。主要参考文献:ServerlessLLM@OSDI24, vLLM@ SOSP23。 | 面向数据密集型计算的资源池化 | 当前主流的存算一体系统架构面临着计算与存储资源耦合的问题,资源扩容能力差,且难以跨节点共享。未来数据中心的发展趋势是将关键资源解耦,通过高可扩展性的高速互联网络(CXL/NVLINK/RDMA)聚合与共享大规模资源池,突破传统架构的资源约束。该课题主要关注池化后的资源如何高效使用,面向数据库、微服务与大模型等常见业务场景,研究如何降低应用迁移到池化架构的难度,并隐藏跨网络访问带来的性能损失,以充分利用池化架构下的共享能力、可扩展性与容灾能力。主要参考文献:Pond@ASPLOS23,Memliner@OSDI22, LegoOS@OSDI18。 | 面向终端大模型推理的操作系统支持 | 随着大模型等技术的突破、智能手机等终端设备的广泛普及,面向智能终端的大模型推理具有非常重要的价值,而面向该场景的操作系统尤为重要。端侧推理通过在本地终端设备上执行计算,有效降低了延迟,提高实时性,并增强用户隐私保护。然而,端侧推理面临计算、内存资源有限,以及功耗约束等挑战,需要重新设计合适的内存管理与存储系统等,并充分结合大模型推理计算框架等技术,以确保在终端设备的有效资源下实现高效推理,该课题将以开源鸿蒙OS为基础,研究面向终端大模型推理的新型内存管理与存储系统技术。主要参考文献:Powerinfer@arxiv2023, Powerinfer2@arxiv2024。 |
|