机读格式显示(MARC)
- 000 02018nam0 2200289 450
- 010 __ |a 978-7-5763-2893-6 |d CNY99.00
- 100 __ |a 20231128d2023 em y0chiy50 ea
- 200 1_ |a 深入理解Transformer自然语言处理 |A shen ru li jie Transformer zi ran yu yan chu li |e 使用Python、PyTorch、TensorFlow、BERT、RoBERTa为NLP构建深度神经网络架构 |f (法) 丹尼斯·罗思曼著 |d = Transformers for natural language processing |e build innovative deep neural network architectures for NLP with Python, PyTorch, TensorFlow, BERT, RoBERTa, and more |f Denis Rothman |g 马勇 ... [等] 译 |z eng
- 210 __ |a 北京 |c 北京理工大学出版社 |d 2023
- 215 __ |a 267页 |c 图 |d 24cm
- 314 __ |a 丹尼斯?罗思曼, 毕业于索邦大学和巴黎狄德罗大学, 设计了第一个word2matrix专利嵌入和向量化系统。他开始了自己的职业生涯, 创作了第一批人工智能认知自然语言处理 (Natural Language Processing, NLP) 聊天机器人和其他公司的自动语言教师。
- 330 __ |a 本书详细介绍了Transformer架构及其在NLP中的创新应用, 为读者提供了全面的知识体系和实践经验。作者以通俗易懂的方式解释复杂概念, 引导读者逐步掌握深度学习和NLP的核心原理。无论您是NLP研究者、数据科学家、计算机科学学生还是技术创业者, 本书都为您提供了深入理解和应用Transformer模型的关键指南。通过本书, 读者将掌握构建高性能NLP应用所需的关键技能, 助力您在人工智能领域取得更大成就。
- 510 1_ |a Transformers for natural language processing |e build innovative deep neural network architectures for NLP with Python, PyTorch,TensorFlow, BERT, RoBERTa, and more |z eng
- 517 1_ |a 使用Python、PyTorch、TensorFlow、BERT、RoBERTa为NLP构建深度神经网络架构 |A shi yong Python、PyTorch、TensorFlow、BERT、RoBERTa wei NLP gou jian shen du shen jing wang luo jia gou
- 606 0_ |a 自然语言处理 |A zi ran yu yan chu li
- 701 _1 |a 罗思曼 |A luo si man |g (Rothman, Denis) |4 著
- 702 _0 |a 马勇 |A ma yong |4 译
- 801 _0 |a CN |b WFKJXY |c 20240803
- 905 __ |a WFKJXY |d TP391/202