|
62 | 62 | - C-based OS to Rust-based OS
|
63 | 63 | - 通过大模型、静态源代码分析,语义解析,代码生成等,完成rCore Tutorial <--> uCoreTutorial,即实现两种OS的相互翻译
|
64 | 64 |
|
| 65 | +- 内存/存储相关:端侧(电脑、手机等)LLM推理的内存/存储管理优化(在研的学术科研项目) |
| 66 | + - 端侧设备的内存分配与释放优化 |
| 67 | + - 针对端侧设备的计算能力和内存限制,研究页表级的内存管理策略,以优化 LLM 推理时的内存占用和访问效率。 |
| 68 | + - 探索按需页调度、TLB(转换后备缓冲区)优化、动态大页管理等技术,以减少内存碎片、降低页表遍历开销,并提升推理任务的整体性能。 |
| 69 | + - 端侧设备的内存带宽优化与管理 |
| 70 | + - 端侧设备的内存带宽通常受限,尤其在多个任务并行处理时,带宽瓶颈尤为突出。 |
| 71 | + - 研究如何通过硬件优化(如多通道内存管理)和操作系统层面的调度策略(如带宽感知的任务调度)来优化内存带宽利用,提高推理任务在端侧设备上的性能。 |
| 72 | + - 端侧设备的跨层存储管理与优化 |
| 73 | + - 端侧设备通常依赖多种存储介质(如内存、闪存等)来处理数据。 |
| 74 | + - 针对边缘计算环境中存储层次结构的特性,设计并优化跨层存储管理策略,使得内存、存储介质(如NVM、SSD等)和计算资源能够高效协同工作,从而提高推理过程中的数据存取速度和整体性能。 |
| 75 | + - 多任务推理在端侧设备中的内存隔离与共享 |
| 76 | + - 端侧设备在未来将会运行多个AI推理任务,内存隔离与共享成为关键问题。 |
| 77 | + - 设计适用于端侧设备的内存管理方案,以确保多个推理任务间的内存隔离,避免相互干扰。 |
| 78 | + - 同时,在合理情况下支持内存共享,以提高设备资源的利用率,避免内存竞争带来的性能下降。 |
| 79 | + |
| 80 | +- 资源调度相关:LLM推理中的资源调度优化(在研的学术科研项目) |
| 81 | + - 推理任务的多级调度系统设计 |
| 82 | + - 设计一个多级调度系统,将推理任务分为不同的优先级,并根据资源的可用性动态调度任务。 |
| 83 | + - 优先级可以基于推理任务的计算密集度、内存需求、带宽需求等因素进行设定。 |
| 84 | + - 系统应支持动态调整优先级,确保高优先级任务能够获得必要的资源,以提高推理效率和响应速度。 |
| 85 | + - 基于计算和内存需求的联合调度策略 |
| 86 | + - 研究如何在AI推理过程中实现计算资源和内存资源的联合调度。 |
| 87 | + - 考虑到推理任务通常涉及大量的计算和内存访问,设计一个协调机制,使得计算任务和内存任务能够高效配合,以避免因资源竞争导致的性能下降。 |
| 88 | + - 可以结合计算密集型和内存密集型任务的特点,合理分配资源。 |
| 89 | + - 基于异构硬件的资源调度策略 |
| 90 | + - 针对不同类型的AI推理任务,设计一个针对异构计算资源(如CPU和GPU等)的动态调度框架。 |
| 91 | + - 系统需要根据推理任务的特点(如是否需要高并行计算、对低延迟的需求等)选择最合适的计算单元执行任务,最大化硬件资源的利用率并减少计算瓶颈。 |
| 92 | + - 内存带宽敏感的任务调度与资源分配 |
| 93 | + - 在AI推理过程中,尤其是涉及大规模数据交换时,带宽限制可能成为性能瓶颈。 |
| 94 | + - 研究内存带宽敏感的调度算法,在内存带宽受限时,通过调度机制合理分配内存带宽资源。 |
| 95 | + - 该调度策略可以包括任务合并、数据压缩等方法,优化带宽资源的使用。 |
| 96 | + |
65 | 97 | 注:上述内容绝大部分都有前期工作可以借鉴,都可以是2025全国大学生OS比赛的内容,也有同学/工程师在做,在下面的参考资源中大部分有提及,并可在前期的基础上进一步改进完善,可进一步联系助教和老师了解相关题目的细节。同学们也可提出自己的题目,并与老师交流,得到老师同意后可开展。
|
66 | 98 |
|
67 | 99 | ### 可作为大实验项目的参考
|
|
0 commit comments