机读格式显示(MARC)
- 000 01608nam0 2200265 450
- 010 __ |a 978-7-302-64872-7 |d CNY99.80
- 100 __ |a 20231228d2024 em y0chiy50 ea
- 200 1_ |a 基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理 |A ji yu GPT-3、ChatGPT、GPT-4 deng Transformer jia gou de zi ran yu yan chu li |f (法) 丹尼斯·罗斯曼著 |g 叶伟民译
- 210 __ |a 北京 |c 清华大学出版社 |d 2024
- 215 __ |a XVII, 353页 |c 图 |d 24cm
- 330 __ |a 本书将引领你进入Transformer的世界, 将讲述不同模型和平台的优势, 指出如何消除模型的缺点和问题。本书将引导你使用HuggingFace从头开始预训练一个RoBERTa模型, 包括构建数据集、定义数据整理器以及训练模型等。本书分步展示如何微调GPT-3等预训练模型。研究机器翻译、语音转文本、文本转语音、问答等NLP任务, 并介绍解决NLP难题的技术, 甚至帮助你应对假新闻焦虑 (详见第13章。从书中可了解到, 诸如OpenAI的高级平台将Transformer打展到语言领域、计算机视觉领域, 并允许使用DALL-E2、ChatGPT和GPT-4生成代码。通过本书, 你将了解到Transformer的工作原理以及如何实施Transformer来决NLP问题。
- 510 1_ |a Transformers for natural language processing: build, train, and fine-tune deep neural network architectures for NLP with Python, Hugging Face, and OpenAI's GPT-3, ChatGPT, and GPT-4 |z eng
- 606 0_ |a 人工智能 |A ren gong zhi neng |x 应用 |x 自然语言处理 |x 研究
- 701 _1 |a 罗斯曼 |A luo si man |g (Rothman, Denis) |4 著
- 702 _0 |a 叶伟民 |A ye wei min |4 译
- 801 _0 |a CN |b WFKJXY |c 20240911
- 905 __ |a WFKJXY |d TP391/220