机读格式显示(MARC)
- 000 01702nam0 2200289 450
- 010 __ |a 978-7-302-67347-7 |d CNY89.00
- 100 __ |a 20241111d2024 em y0chiy50 ea
- 200 1_ |a 大模型动力引擎 |A da mo xing dong li yin qing |e PyTorch性能与显存优化手册 |f 张爱玲, 杨占略著
- 210 __ |a 北京 |c 清华大学出版社 |d 2024
- 215 __ |a x, 217页 |c 图 |d 24cm
- 314 __ |a 张爱玲, 本科毕业于清华大学电子工程系, 后在美国伊利诺伊大学香槟分校获得计算机科学硕士学位, AI系统工程领域的资深技术专家。杨占略, 清华大学本科, 哥伦比亚大学硕士, 资深技术专家。曾先后任职于苹果、百度、太极图形公司, 分别从事深度学习推理框架、训练框架PaddlePaddle以及Taichi编译器的开发。现就职于大疆公司, 聚焦于端侧模型优化、推理部署相关工作。
- 330 __ |a 本书致力于探索如何在大规模深度学习模型训练中,有限度地提高性能和优化显存使 用。本书面向深度学习从业者,尤其是希望深入了解并提升模型训练效率的工程师与研究 人员。随着深度学习模型和数据规模的迅速增长,如何高效利用硬件资源,减少训练时间, 成为当前AI系统工程的关键挑战。本书从硬件和软件的基础知识入手,逐步引导读者理解 和掌握PyTorch的优化技巧。内容涵盖从单机到分布式训练,从显存管理到性能分析的多种 优化策略,力求通过丰富的代码实例和深入的原理讲解,使读者能够在实践中灵活应用这些 方法。
- 510 1_ |a Efficient training in PyTorch |z eng
- 517 1_ |a PyTorch性能与显存优化手册 |A PyTorchxing neng yu xian cun you hua shou ce
- 606 0_ |a 机器学习 |A ji qi xue xi
- 701 _0 |a 张爱玲 |A zhang ai ling |4 著
- 701 _0 |a 杨占略 |A yang zhan lue |4 著
- 801 _0 |a CN |b WFKJXY |c 20250724
- 905 __ |a WFKJXY |d TP181/521