机读格式显示(MARC)
- 000 01786nam0 2200301 450
- 010 __ |a 978-7-302-67831-1 |d CNY59.80
- 099 __ |a CAL 012025008715
- 100 __ |a 20250213d2025 ekmy0chiy50 ea
- 200 1_ |a Python预训练视觉和大语言模型 |A python yu xun lian shi jue he da yu yan mo xing |f (美) 艾米丽·韦伯著 |g 郭涛译
- 210 __ |a 北京 |c 清华大学出版社 |d 2025
- 215 __ |a XXVI, 232页 |c 图 |d 21cm
- 314 __ |a 艾米丽·韦伯 (Emily Webber) 是AWS的首席ML专家解决方案架构师, 专门从事大语言和视觉模型的分布式训练。Emily在AWS社区广为人知, 在YouTube上发布了由16个视频组成的SageMaker系列, 视频播放量高达21.1万次。Emily曾在2019年伦敦人工智能大会上发表过主题演讲。
- 330 __ |a 本书由经验丰富的AWS和机器学习专家EmilyWebber撰写, 涵盖的内容十分广泛, 包括构思项目, 准备数据集, 训练、评估和部署大型语言、视觉及多模态模型。本书循序渐进地讲述基本概念并列举实例, 指导你预训练和准备数据集及模型, 配置环境, 并训练、微调、评估、部署和优化基础模型。学习本书后, 你将能按照缩放法则在多个GPU上分布模型和数据集, 消除偏差, 实现高吞吐量以及构建部署管道。最后, 你将完全有能力开发个人项目, 对未来的基础模型进行预训练和微调。
- 500 10 |a Pretrain vision and large language models in Python : end-to-end techniques for building and deploying foundation models on AWS |A Pretrain Vision And Large Language Models In Python : End-to-end Techniques For Building And Deploying Foundation Models On Aws |m Chinese
- 606 0_ |a 自然语言处理 |A zi ran yu yan chu li
- 701 _1 |a 韦伯 |A wei bo |g (Webber, Emily) |4 著
- 702 _0 |a 郭涛 |A guo tao |4 译
- 801 _0 |a CN |b WFKJXY |c 20250625
- 905 __ |a WFKJXY |d TP391/253