机读格式显示(MARC)
- 000 01353nam0 2200289 450
- 010 __ |a 978-7-302-69881-4 |d CNY59.00
- 092 __ |a CN |b 人天1194-2743
- 100 __ |a 20251010d2025 em y0chiy50 ea
- 200 1_ |a Transformer大模型 |A Transformer da mo xing |e 原理、实践及应用 |f 陈喆著
- 210 __ |a 北京 |c 清华大学出版社 |d 2025.09
- 215 __ |a 179页 |c 图 |d 26cm
- 314 __ |a 陈喆, 曾任东北大学信息学院及计算机学院副教授、硕士研究生导师、东北大学物联网工程研究所副所长、无锡 (滨湖) 国家传感信息中心副主任 (挂职)。
- 330 __ |a 本书从原理的角度, 系统地讲解序列监督学习、序列聚合、注意力机制、Transformer层以及三种类型的Transformer架构 ; 从应用的角度, 讲解并演示如何在自然语言处理、计算机视觉、信号处理、推荐系统、深度强化学习等领域使用Transformer架构完成文本分类、文本生成、机器翻译、语音识别、语音合成、图像分类、图像说明、视频分类、视频预测等任务 ; 并从实践的角度, 通过47个循序渐进的实验, 引领读者使用PyTorch框架独立编程实现上述方法和架构、完成上述任务。
- 606 0_ |a 自然语言处理 |A zi ran yu yan chu li
- 701 _0 |a 陈喆 |A chen zhe |4 著
- 801 _0 |a CN |b 人天书店 |c 20251010
- 962 __ |a 200012043 |x ff2ae837c124d6b83632b1a00e9cbe