同类推荐
-
-
透过AI认知世界:an artificial inte…
-
¥99.00
-
-
人工智能原理及MATLAB实现
-
¥79.80
-
-
类人意识与类人智能
-
¥48.00
-
-
AIGC辅助数据分析与挖掘:基于ChatGPT的方法与…
-
¥99.00
-
-
时标上人工神经网络的加权伪概周期解与加权伪概自守解
-
¥82.00
-
-
向AI提问的艺术:提示工程入门与应用
-
¥69.00
-
-
ChatGPT职场实战指南
-
¥79.00
-
-
技术之外:社会联结中的人工智能:power, poli…
-
¥69.00
-
-
控制工程基础
-
¥35.00
-
-
GPT:使用OpenAI API构建NLP产品的终极指南
-
¥59.00
|
|
图书信息
|
|
|
机器学习
|
ISBN: | 9787563565030 |
定价: | ¥39.00 |
作者: | 周文安编著 |
出版社: | 北京邮电大学出版社 |
出版时间: | 2021年08月 |
开本: | 26cm |
页数: | 207页 |
中图法: | TP181 |
相关供货商
供货商名称
|
库存量
|
库区
|
更新日期
|
|
|
|
|
其它供货商库存合计
|
1095
|
|
2024-03-28
|
图书简介 | 本书介绍了机器学习的基本概念、经典算法和热点技术, 包括机器学习的概念与框架, 计算学习理论, 经典统计学习方法, 以及新的迁移学习、强化学习、集成学习和深度学习的概念与方法。 |
目录 | 第1章 机器学r 1.1 什么是机器学r 1.2 通过MNIST解机器学r 1.2.1 MNIST概述r 1.2.2 MNIST数据结构r 1.2.3 利用MNIST数据集训练神经网络r 1.3 机器学构成要素r 1.3.1 任务r 1.3.2 模型r 1.3.3 特征r 1.4 机器学模型r 1.4.1 JI.何模型r 1.4.2 概率模型r 1.4.3 逻辑模型r l.5 发展历程r 1.5.1 机器学芽时期r 1.5.2 机器学烈时期r 1.5.3 机器学静时期r 1.5.4 机器学兴时期r 1.5.5 机器学元发展时期r 本章小结r r 第2章 几何模型r 2.1 线分类器r 2.2 支持向量机r 2.3 邻算法r 2.4 K均值聚类r 本章小结r 延伸阅读r r 第3章 概念学r 3.1 概念学义r 3.2 概念学的表述r 3.3 术语定义r 3.3.1 假设空间r 3.3.2 一般到特殊序r 3.3.3 一致与变型空间r 3.4 FINI)_S算法r 3.5 候选消除算法r 3.5.1 先列表后消除算法r 3.5.2 变型空间的简明表示r 3.5.3 候选消除算法的说明r 3.5.4 候选消除算法的示例r 本章小结r 延伸阅读r r 第4章 人工神经网络r 4.1 人工神经网络的介绍r 4.2 神经元模型r 4.3 适合神经网络学题r 4.4 感知器与多层网络r 4.4.1 感知器的表征能力r 4.4.2 感知器学r 4.4.3 Delta法则r 4.5 多层网络和反向传播算法r 4.5.1 可微阈值单元和前向传播r 4.5.2 二次代价函数r 4.5.3 反向传播算法r 4.6 利用单隐藏层BPNN处理MNIsT学集r 4.7 BPNN的应用、BPNN的优缺点及r 本章小结r 延伸阅读r r 第5章 模型的评估和选择r 5.1 测试集与训练集r 5.2 经验误差与泛化误差r 5.3 过拟合和欠拟合r 5.4 测试集样本数据获取方法r 5.4.1 留出法r 5.4.2 研折交叉验证法r 5.4.3 自助法r 5.5 模型能度量r 5.5.1 回归模型的能度量r 5.5.2 分类模型的能度量r 5.6 回归模型的泛化误差分解r 本章小结r 延伸阅读r r 第6章 概率模型r 6.1 生成式概率模型与判别式概率模型r 6.2 贝叶斯决策论r 6.3 朴素贝叶斯模型r 6.3.1 朴素贝叶斯分类器r 6.3.2 极大似然估计r 6.3.3 拉普拉斯修正r 6.3.4 学类算法r 6.4 逻辑斯蒂回归模型r 6.4.1 逻辑斯蒂分布r 6.4.2 二项逻辑斯蒂回归模型r 6.4.3 模型参数估计r 6.4.4 多项逻辑斯蒂回归r 6.4.5 逻辑斯蒂回归举例r 6.4.6 逻辑斯蒂回一步讨论r 6.5 高斯混合模型r 6.5.1 高斯混合模型的定义r 6.5.2 EM算法r 6.5.3 高斯混合模型的参数估计r 6.5.4 高斯混合模型举例与计算过程详解r 6.5.5 高斯混合模一步讨论r 本章小结r 延伸阅读r r 第7章 集成学r 7.1 集成学r 7.2 Bagging算法r 7.2.1 自助采样Bagging算法r 7.2.2 森林Bagging算法r 7.3 Boosting算法r 7.3.1 算法基本介绍r 7.3.2 AdaBoost算法推导r 7.3.3 AdaBoost算法步骤r 7.3.4 AdaBoost算法应用举例r 7.4 集成策略r 7.5 Bagging算法与Boosting算法对比r 本章小结r 延伸阅读r r 第8章 强化学r 8.1 强化学r 8.1.1 什么是强化学r 8.1.2 强化学分类r 8.2 Q-Learning算法r 8.2.1 Q—Learning的原理r 8.2.2 Q—Learning算法的步骤r 8.2.3 Q—Learning算法中的衰减因子r 8.2.4 Q—Learning算法试验r 8.3 SARSA算法r 8.3.1 SARSA。算法的步骤r 8.3 一SA.RSA算法试验r 8.3.3 SARSA(Lambda)算法r 8.3.4 SARSA(Lambda)试验r 本章小结r 延伸阅读r r 第9章 迁移学r 9.1 迁移学本概念r 9.1.1 迁移学r 9.1.2 迁移学义r 9.1.3 迁移学类r 9.2 迁移学法r 9.2.1 TrAdaBoost算法r 9.2.2 TcA算法r 9.2.3 A算法r 9.2.4 TransEMDT算法r 本章小结r 延伸阅读r 第10章 卷积神经网络r 10.1 卷积运算r 10.1.1 一维离散信号卷积r 10.1.2 二维离散信号卷积r 10.1.3 二维互相关r 10.1.4 多层卷积和多通道卷积r 10.1.5 池化r 10.1.6 图像卷积运算示例r 10.2 卷积神经网络r 10.2.1 基本网络结构r 10.2.2 N的特点r 10.3 N反向训练r 10.3.1 全连接层r 10.3.2 池化层r 10.3.3 卷积层r 10.4 N处理MNIST数据集试验r 10.4.1 网络结构r 10.4.2 测试结果及讨论r 本章小结r 延伸阅读r r 第11章 循环神经网络r 11.1 简单循环神经网络r 11.1.1 字符级别语言模型简介r 11.1.2 网络结构r 11.1.3 前向传播算法r 11.1.4 反向传播算法r 11.1.5 简单RNNr 11.1.6 简单RNN梯度爆炸和梯度消失r 11.2 LSTMr 11.2.1 LSTM的发展历史和基本结构r 11.2.2 LsTM前向传播r 11.2.3 LsTM反向传播r 11.2.4 其他形式的LSTMr 11.3 双向RNNr 1l.4深度RNNr 本章小结r 延伸阅读r r 第12章 计算学r 12.1 简介r 12.2 PAC可学r 12.3 有限假设空间的样本复杂度r 12.3.1 可分情形r 12.3.2 不可分情形r 12.4 无限假设空间的样本复杂度r 12.4.1 实例集合打散r 12.4.2 vC维的定义和样本复杂度r 12.4.3 基于VC维表示的泛化误差r 12.5 算法稳定r 本章小结r 延伸阅读r r 参考文献 |
|