同类推荐
-
-
技术之外:社会联结中的人工智能:power, poli…
-
¥69.00
-
-
ChatGPT职场实战指南
-
¥79.00
-
-
向AI提问的艺术:提示工程入门与应用
-
¥69.00
-
-
AIGC辅助数据分析与挖掘:基于ChatGPT的方法与…
-
¥99.00
-
-
时标上人工神经网络的加权伪概周期解与加权伪概自守解
-
¥82.00
-
-
类人意识与类人智能
-
¥48.00
-
-
GPT:使用OpenAI API构建NLP产品的终极指南
-
¥59.00
-
-
深度学习——模型、算法优化与实战
-
¥79.80
-
-
人工智能边缘计算开发实战:基于NVIDIA Jetso…
-
¥99.00
-
-
大模型应用开发极简入门:基于GPT-4和ChatGPT
-
¥59.80
|
|
图书信息
|
|
|
深度学习与TensorFlow实践
|
ISBN: | 9787121401992 |
定价: | ¥79.00 |
作者: | 张玉宏著 |
出版社: | 电子工业出版社 |
出版时间: | 2021年01月 |
开本: | 26cm |
页数: | 13,301页 |
中图法: | TP181 |
相关供货商
供货商名称
|
库存量
|
库区
|
更新日期
|
北京人天书店有限公司
|
32
|
库区7-1/样本4-1/样本7-1
|
2024-03-28
|
其它供货商库存合计
|
618
|
|
2024-03-27
|
图书简介 | 本书深入浅出地介绍了深度学习的相关理论和TensorFlow实践, 全书共8章。第1章给出了深度学习的基本概况。第2章详细介绍了神经网络相关知识, 内容包括M-P神经元模型、感知机、多层神经网络。第3章介绍了被广泛认可的深度学习框架TensorFlow 2的安装流程与新特性。第4章详细介绍了TensorFlow2的相关语法。第5章介绍了BP算法和常见的优化方法。第6章介绍了Keras模块的使用。第7章和第8章分别详细讲解了卷积神经网络和循环神经网络, 并给出了相关的实战项目。 |
目录 | 目 录r 第1章 深度学 1r 1.1 从人工智能到深度学r 1.1.1 从感知机到深度学r 1.1.2 深度学大影响 6r 1.2 从学器学r 1.2.1 什么是学r 1.2.2 什么是机器学r 1.2.3 机器学个象限 9r 1.3 深度学涵 10r 1.3.1 什么是深度学0r 1.3.2 生活中的深度学2r 1.3.3 有没有浅度学3r 1.4 本章小结 14r 1.5 思考与14r 参考资料 14r 第2章 神经网络学6r 2.1 人工神经网络的定义 17r 2.2 神经网络的原子单元――感知机 18r 2.2.1 感知机的形式化描述 18r 2.2.2 感知机名称的由来 19r 2.2.3 感认识感知机 20r 2.2.4 感知机是如何学22r 2.2.5 感知机训练法则 24r 2.2.6 感知机中的激活函数 26r 2.2.7 感知机的几何意义 26r 2.2.8 实战:基于Python的感知机实现 27r 2.2.9 感知机的表征能力 31r 2.3 多层前馈网络 32r 2.3.1 多层网络解决“异或”问题 32r 2.3.2 多层前馈神经网络 34r 2.3.3 机器学与通似定理 35r 2.3.4 神经网络结构的设计 37r 2.4 神经网络中的损失函数 38r 2.5 常用的激活函数 40r 2.5.1 Sigmoid函数 40r 2.5.2 Tanh函数 41r 2.5.3 ReLU函数 42r 2.6 实战:利用sklearn搭建多层神经网络 43r 2.6.klearn简介 44r 2.6.2 sklearn的安装 44r 2.6.3 sklearn搭建多层神经网络实现红酒分类 45r 2.7 本章小结 57r 2.8 思考与58r 参考资料 58r 第3章 初识TensorFlow 60r 3.1 TensorFlow概述 61r 3.2 TensorFlow特征 62r 3.3 深度学比较 63r 3.3.1 Theano 63r 3.3.2 Keras 64r 3.3.3 Caffe 65r 3.3.4 PyTorch 66r 3.4 利用Anaconda安装TensorFlow 67r 3.4.1 Anaconda的下载与安装 67r 3.4.2 验证Python是否安装 70r 3.4.3 利用conda安装TensorFlow 71r 3.5 运行“Hello World!”版的TensorFlow程序 72r 3.5.1 利用TensorFlow 2 编写的个程序 74r 3.5.2 TensorFlow 2 的新特 75r 3.6 本章小结 79r 3.7 思考与提高 79r 参考资料 79r 第4章 TensorFlow 基础语法 80r 4.1 TensorFlow的张量思维 81r 4.1.1 张量的阶 81r 4.1.2 张量的尺 83r 4.2 TensorFlow中的数据类型 86r 4.2.1 Python基本数据类型与TensorFlow的关系 86r 4.2.2 数值类型 87r 4.2.3 字符串类型 89r 4.2.4 布尔类型 91r 4.2.5 张量类型转换 92r 4.2.6 TensorFlow中的张量与NumPy数组 93r 4.3 TensorFlow中的常量与变量 97r 4.3.1 constant常量 97r 4.3.2 Variable变量 98r 4.4 常用张量生成方法 100r 4.4.1 生成全0的张量 100r 4.4.2 生成全1的张量 102r 4.4.3 生成全为给定值的张量 103r 4.4.4 生成已知分布的数张量 103r 4.4.5 创建特定张量序列 104r 4.5 张量的索引和切片 105r 4.5.1 索引 105r 4.5.2 通过切片访问 107r 4.6 张量的维度伸缩与交换 111r 4.6.1 张量中的轴方向 111r 4.6.2 张量维度的增加与删除 111r 4.7 张量的合并、分割与 112r 4.7.1 张量合并 113r 4.7.2 张量分割 115r 4.8 TensorFlow中的计算 118r 4.8.1 按元素计算 118r 4.8.2 张量的按轴计算 119r 4.9 张量的广播机制 122r 4.9.1 广播的定义 122r 4.9.2 广播的操作与适用规则 122r 4.10 张量在神经网络中的典型应用 124r 4.10.1 标量 124r 4.10.2 向量 126r 4.10.3 矩阵 126r 4.10.4 三维张量 129r 4.10.5 四维张量 130r 4.10.6 五维张量 130r 4.11 本章小结 131r 4.12 思考与练32r 参考资料 132r 第5章 BP算法与优化方法 133r 5.1 为何需要优化函数 134r 5.1.1 优化的意义 134r 5.1.2 优化函数的流程 134r 5.2 基于梯度的优化算法 136r 5.2.1 什么是梯度 136r 5.2.2 梯度的代码实现 138r 5.2.3 梯度递减 142r 5.2.4 批量梯度递减法 145r 5.2.5 梯度递减法 146r 5.2.6 小批量梯度递减法 148r 5.2.7 实战:基于梯度递减的线回归算法 148r 5.2.8 基于梯度递减优化算法的挑战 151r 5.3 BP算法 152r 5.3.1 BP算法的发展历程 152r 5.3.2 正向传播信息 153r 5.3.3 求导中的链式法则 156r 5.3.4 误差反向传播 158r 5.3.5 实战:利用BP算法解决异或问题 160r 5.4 TensorFlow中的其他优化算法 163r 5.5 本章小结 166r 5.6 思考与166r 参考资料 167r 第6章 Keras模块的使用 168r 6.1 Keras与tf.keras模块 169r 6.2 数据的加载 170r 6.2.1 TensorFlow的经典数据集 170r 6.2.2 Dataset对象 171r 6.3 Dataset的变换 173r 6.3.1 打散 173r 6.3.2 设置批大小 174r 6.3.3 数据映射 174r 6.3.4 循环训练 175r 6.4 实战:基于梯度递减的手写数字识别MNIST 176r 6.4.1 MNIST数据集简介 176r 6.4.2 MNIST数据的获取 178r 6.4.3 手写识别任务的分类模型 180r 6.4.4 Softmax回归模型 182r 6.4.5 手写数字识别MNIST中的Softmax回归模型 184r 6.4.6 TensorFlow中搭建模型的三种方式 185r 6.4.7 常用的序贯模型 186r 6.4.8 利用tf.kera行模型搭建 188r 6.4.9 利用梯度递减算法构建模型 191r 6.4.10 损失函数的交叉熵模型 193r 6.4.11 tf.keras中的模型编译 196r 6.4.12 模型的训练与预测 198r 6.4.13 训练模型的保存与读取 201r 6.5 本章小结 205r 6.6 思考与练06r 参考资料 206r 第7章 卷积神经网络 207r 7.1 概述 208r 7.1.1 前馈神经网络的问题所在 208r 7.1.2 卷积神经网络的生物学启示 209r 7.1.3 卷积神经网络的发展历程 210r 7.1.4 深度学端到端”范式 212r 7.2 卷积神经网络的概念 213r 7.2.1 卷积的数学定义 213r 7.2.2 生活中的卷积 215r 7.3 图像处理中的卷积 215r 7.3.1 计算机“视界”中的图像 215r 7.3.2 卷积运算 216r 7.3.3 卷积在图像处理中的应用 219r 7.4 卷积神经网络的结构 221r 7.5 卷积层要义 222r 7.5.1 卷积层的局部连接 222r 7.5.2 卷积核深度 223r 7.5.3 步幅 223r 7.5.4 填充 224r 7.5.5 权值共享 226r 7.6 激活层 227r 7.7 池化层 228r 7.8 全连接层 230r 7.9 防止过拟合的Dropout机制 231r 7.10 经典的卷积神经网络结构 232r 7.10.1 LeNet-5 233r 7.10.2 AlexNet 233r 7.10.3 VGGNet 235r 7.11 实战:基于卷积神经网络的手写数字识别 236r 7.11.1 数据读取 237r 7.11.2 搭建模型 238r 7.11.3 模型训练 240r 7.11.4 可视化展现TensorBoard 242r 7.11.5 模型预测 246r 7.12 本章小结 248r 7.13 思考与练48r 参考资料 249r 第8章 循环神经网络与LSTM 250r 8.1 标准神经网络的缺点 251r 8.2 循序神经网络的发展历程 252r 8.2.1 Hopfield网络 252r 8.2.2 Jordan循环神经网络 252r 8.2.3 Elman循环神经网络 253r 8.2.4 RNN的应用领域 254r 8.3 RNN的理论基础 254r 8.3.1 RNN的形式化定义 255r 8.3.2 循环神经网络的生物学机理 256r 8.4 常见的RNN拓扑结构 257r 8.4.1 one-to-one 257r 8.4.2 one-to-many 258r 8.4.3 many-to-one 258r 8.4.4 many-to-many 258r 8.5 RNN的训练 259r 8.5.1 单向RNN建模 259r 8.5.2 双向RNN建模 261r 8.5.3 确定优化目标函数 262r 8.5.4 参数求解与BPTT 262r 8.6 LSTM的来历 263r 8.7 拆解LSTM 264r 8.7.1 改经元 264r 8.7.2 遗忘门 266r 8.7.3 输入门 267r 8.7.4 调节门 267r 8.7.5 输出门 268r 8.7.6 LSTM的部能 269r 8.7.7 GRU优化 270r 8.8 LSTM的训练流程 270r 8.9 自然语言处理的假说 271r 8.10 词向量表示方法 273r 8.10.1 独热编码表示 273r 8.10.2 分布式表示 275r 8.10.3 词嵌入表示 277r 8.11 基于RNN的语言模型 279r 8.12 实战:基于RNN 的文本情感分类问题 281r 8.12.1 数据读取 281r 8.12.2 感认知数据 282r 8.12.3 数据预处理 284r 8.12.4 搭建简易RNN 286r 8.12.5 基于LSTM的优化 290r 8.12.6 基于GRU的优化 291r 8.13 本章小结 293r 8.14 思考与练94r 参考资料 294 |
|