同类推荐
-
-
深度强化学习算法原理与实战:基于MATLAB
-
¥109.00
-
-
Vibe编程:探索AI时代编程新范式
-
¥69.80
-
-
Kimi实战精粹
-
¥69.90
-
-
人工智能物联网应用:基于树莓派
-
¥49.00
-
-
人工智能物联网应用:基于树莓派
-
¥49.00
-
-
人工智能物联网应用:基于树莓派
-
¥49.00
-
-
人人都需要的通用智能体助手:Manus+扣子空间+秒哒…
-
¥79.00
-
-
AIGC基础与应用:微课版
-
¥68.00
-
-
这就是MCP
-
¥79.80
-
-
豆包实战精粹
-
¥69.90
|
|
图书信息
|
|
|
从零开始写大模型:从神经网络到Transformer
|
ISBN: | 9787302695080 |
定价: | ¥69.80 |
作者: | 王双,牟晨,王昊怡编著 |
出版社: | 清华大学出版社 |
出版时间: | 2025年06月 |
开本: | 26cm |
页数: | 211页 |
中图法: | TP18 |
相关供货商
供货商名称
|
库存量
|
库区
|
更新日期
|
|
|
|
|
其它供货商库存合计
|
500
|
|
2025-08-27
|
图书简介 | 本书共20章,分为5篇。第1篇神经网络快速入门,介绍神经网络的基础和结构;第2篇Transformer架构基础,介绍几种经典的编解码架构、Tokenization基础知识、Transformer架构涉及的数学概念;第3篇Transformer模型剖析,首先介绍大语言模型的概念和参数规模,然后介绍Transformer的词汇输入模块、注意力机制模块和输出模块,最后介绍基于Transformer架构的模型训练过程、推理过程、优化方法和超参数;第4篇Transformer进阶,首先介绍如何使用Python实现一个简单的Transformer架构,然后介绍BERT和GPT两种经典大语言模型,最后给出国内一些大公司的高频面试题;第5篇GPT模型完全体验之MiniMind,详细介绍一个开源极简大语言模型MiniMind的项目情况、代码结构,以及安装、训练、微调与推理过程等,帮助读者上手体验大语言模型的完整构建过程。 |
|