دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش: نویسندگان: Ian H.Witten, Eibe Frank سری: 计算机科学丛书 ISBN (شابک) : 7111453816, 9787111453819 ناشر: 机械工业出版社 سال نشر: 2014 تعداد صفحات: 482 زبان: Chinese فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 156 مگابایت
در صورت تبدیل فایل کتاب 数据挖掘:实用机器学习工具与技术(原书第3版) به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب 数据挖掘:实用机器学习工具与技术(原书第3版) نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
封面 书名 版权 前言 目录 第一部分 数据挖掘简介 第1章 绪论 1.1 数据挖掘和机器学习 1.1.1 描述结构模式 1.1.2 机器学习 1.1.3 数据挖掘 1.2 简单的例子:天气问题和其他问题 1.2.1 天气问题 1.2.2 隐形眼镜:一个理想化的问题 1.2.3 鸢尾花:一个经典的数值型数据集 1.2.4 CPU性能:介绍数值预测 1.2.5 劳资协商:一个更真实的例子 1.2.6 大豆分类:一个经典的机器学习的成功例子 1.3 应用领域 1.3.1 Web挖掘 1.3.2 包含评判的决策 1.3.3 图像筛选 1.3.4 负载预测 1.3.5 诊断 1.3.6 市场和销售 1.3.7 其他应用 1.4 机器学习和统计学 1.5 将泛化看做搜索 1.5.1 枚举概念空间 1.5.2 偏差 1.6 数据挖掘和道德 1.6.1 再识别 1.6.2 使用个人信息 1.6.3 其他问题 1.7 补充读物 第2章 输入:概念、实例和属性 2.1 概念 2.2 样本 2.2.1 关系 2.2.2 其他实例类型 2.3 属性 2.4 输入准备 2.4.1 数据收集 2.4.2 ARFF格式 2.4.3 稀疏数据 2.4.4 属性类型 2.4.5 缺失值 2.4.6 不正确的值 2.4.7 了解数据 2.5 补充读物 第3章 输出:知识表达 3.1 表 3.2 线性模型 3.3 树 3.4 规则 3.4.1 分类规则 3.4.2 关联规则 3.4.3 包含例外的规则 3.4.4 表达能力更强的规则 3.5 基于实例的表达 3.6 聚类 3.7 补充读物 第4章 算法:基本方法 4.1 推断基本规则 4.1.1 缺失值和数值属性 4.1.2 讨论 4.2 统计建模 4.2.1 缺失值和数值属性 4.2.2 用于文档分类的朴素贝叶斯 4.2.3 讨论 4.3 分治法:建立决策树 4.3.1 计算信息量 4.3.2 高度分支属性 4.3.3 讨论 4.4 覆盖算法:建立规则 4.4.1 规则与树 4.4.2 一个简单的覆盖算法 4.4.3 规则与决策列表 4.5 挖掘关联规则 4.5.1 项集 4.5.2 关联规则 4.5.3 有效地生成规则 4.5.4 讨论 4.6 线性模型 4.6.1 数值预测:线性回归 4.6.2 线性分类:Logistic回归 4.6.3 使用感知机的线性分类 4.6.4 使用Winnow的线性分类 4.7 基于实例的学习 4.7.1 距离函数 4.7.2 有效寻找最近邻 4.7.3 讨论 4.8 聚类 4.8.1 基于距离的迭代聚类 4.8.2 快速距离计算 4.8.3 讨论 4.9 多实例学习 4.9.1 聚集输入 4.9.2 聚集输出 4.9.3 讨论 4.10 补充读物 4.11 Weka实现 第5章 可信度:评估学习结果 5.1 训练和测试 5.2 预测性能 5.3 交叉验证 5.4 其他评估方法 5.4.1 留一交叉验证 5.4.2 自助法 5.5 数据挖掘方法比较 5.6 预测概率 5.6.1 二次损失函数 5.6.2 信息损失函数 5.6.3 讨论 5.7 计算成本 5.7.1 成本敏感分类 5.7.2 成本敏感学习 5.7.3 提升图 5.7.4 ROC曲线 5.7.5 召回率-精确率曲线 5.7.6 讨论 5.7.7 成本曲线 5.8 评估数值预测 5.9 最小描述长度原理 5.10 在聚类方法中应用MDL原理 5.11 补充读物 第二部分 高级数据挖掘 第6章 实现:真正的机器学习方案 6.1 决策树 6.1.1 数值属性 6.1.2 缺失值 6.1.3 剪枝 6.1.4 估计误差率 6.1.5 决策树归纳的复杂度 6.1.6 从决策树到规则 6.1.7 C4.5:选择和选项 6.1.8 成本-复杂度剪枝 6.1.9 讨论 6.2 分类规则 6.2.1 选择测试的标准 6.2.2 缺失值和数值属性 6.2.3 生成好的规则 6.2.4 使用全局优化 6.2.5 从局部决策树中获得规则 6.2.6 包含例外的规则 6.2.7 讨论 6.3 关联规则 6.3.1 建立频繁模式树 6.3.2 寻找大项集 6.3.3 讨论 6.4 扩展线性模型 6.4.1 最大间隔超平面 6.4.2 非线性类边界 6.4.3 支持向量回归 6.4.4 核岭回归 6.4.5 核感知机 6.4.6 多层感知机 6.4.7 径向基函数网络 6.4.8 随机梯度下降 6.4.9 讨论 6.5 基于实例的学习 6.5.1 减少样本集的数量 6.5.2 对噪声样本集剪枝 6.5.3 属性加权 6.5.4 泛化样本集 6.5.5 用于泛化样本集的距离函数 6.5.6 泛化的距离函数 6.5.7 讨论 6.6 局部线性模型用于数值预测 6.6.1 模型树 6.6.2 构建树 6.6.3 对树剪枝 6.6.4 名目属性 6.6.5 缺失值 6.6.6 模型树归纳的伪代码 6.6.7 从模型树到规则 6.6.8 局部加权线性回归 6.6.9 讨论 6.7 贝叶斯网络 6.7.1 预测 6.7.2 学习贝叶斯网络 6.7.3 算法细节 6.7.4 用于快速学习的数据结构 6.7.5 讨论 6.8 聚类 6.8.1 选择聚类的个数 6.8.2 层次聚类 6.8.3 层次聚类的例子 6.8.4 增量聚类 6.8.5 分类效用 6.8.6 基于概率的聚类 6.8.7 EM算法 6.8.8 扩展混合模型 6.8.9 贝叶斯聚类 6.8.1 0讨论 6.9 半监督学习 6.9.1 用于分类的聚类 6.9.2 协同训练 6.9.3 EM和协同训练 6.9.4 讨论 6.10 多实例学习 6.10.1 转换为单实例学习 6.10.2 升级学习算法 6.10.3 专用多实例方法 6.10.4 讨论 6.11 Weka实现 第7章 数据转换 7.1 属性选择 7.1.1 独立于方案的选择 7.1.2 搜索属性空间 7.1.3 具体方案相关的选择 7.2 离散化数值属性 7.2.1 无监督离散化 7.2.2 基于熵的离散化 7.2.3 其他离散化方法 7.2.4 基于熵的离散化与基于误差的离散化 7.2.5 离散属性转换成数值属性 7.3 投影 7.3.1 主成分分析 7.3.2 随机投影 7.3.3 偏最小二乘回归 7.3.4 从文本到属性向量 7.3.5 时间序列 7.4 抽样 7.5 数据清洗 7.5.1 改进决策树 7.5.2 稳健回归 7.5.3 检测异常 7.5.4 一分类学习 7.6 多分类问题转换成二分类问题 7.6.1 简单方法 7.6.2 误差校正输出编码 7.6.3 集成嵌套二分法 7.7 校准类概率 7.8 补充读物 7.9 Weka实现 第8章 集成学习 8.1 组合多种模型 8.2 装袋 8.2.1 偏差-方差分解 8.2.2 考虑成本的装袋 8.3 随机化 8.3.1 随机化与装袋 8.3.2 旋转森林 8.4 提升 8.4.1 AdaBoost算法 8.4.2 提升算法的威力 8.5 累加回归 8.5.1 数值预测 8.5.2 累加Logistic回归 8.6 可解释的集成器 8.6.1 选择树 8.6.2 Logistic模型树 8.7 堆栈 8.8 补充读物 8.9 Weka实现 第9章 继续:扩展和应用 9.1 应用数据挖掘 9.2 从大型的数据集里学习 9.3 数据流学习 9.4 融合领域知识 9.5 文本挖掘 9.6 Web挖掘 9.7 对抗情形 9.8 无处不在的数据挖掘 9.9 补充读物 第三部分 Weka数据挖掘平台 第10章 Weka简介 10.1 Weka中包含了什么 10.2 如何使用Weka 10.3 Weka的其他应用 10.4 如何得到Weka 第11章 Explorer界面 11.1 开始 11.1.1 准备数据 11.1.2 将数据载入Explorer 11.1.3 建立决策树 11.1.4 查看结果 11.1.5 重做一遍 11.1.6 运用模型 11.1.7 运行错误的处理 11.2 探索Explorer 11.2.1 载入及过滤文件 11.2.2 训练和测试学习方案 11.2.3 自己动手:用户分类器 11.2.4 使用元学习器 11.2.5 聚类和关联规则 11.2.6 属性选择 11.2.7 可视化 11.3 过滤算法 11.3.1 无监督属性过滤器 11.3.2 无监督实例过滤器 11.3.3 有监督过滤器 11.4 学习算法 11.4.1 贝叶斯分类器 11.4.2 树 11.4.3 规则 11.4.4 函数 11.4.5 神经网络 11.4.6 懒惰分类器 11.4.7 多实例分类器 11.4.8 杂项分类器 11.5 元学习算法 11.5.1 装袋和随机化 11.5.2 提升 11.5.3 组合分类器 11.5.4 成本敏感学习 11.5.5 优化性能 11.5.6 针对不同任务重新调整分类器 11.6 聚类算法 11.7 关联规则学习器 11.8 属性选择 11.8.1 属性子集评估器 11.8.2 单一属性评估器 11.8.3 搜索方法 第12章 Knowledge Flow界面 12.1 开始 12.2 Knowledge Flow组件 12.3 配置及连接组件 12.4 增量学习 第13章 Experimenter界面 13.1 开始 13.1.1 运行一个实验 13.1.2 分析结果 13.2 简单设置 13.3 高级设置 13.4 分析面板 13.5 将运行负荷分布到多个机器上 第14章 命令行界面 14.1 开始 14.2 Weka的结构 14.2.1 类、实例和包 14.2.2 weka.core包 14.2.3 weka.classifiers包 14.2.4 其他包 14.2.5 Javadoc索引 14.3 命令行选项 14.3.1 通用选项 14.3.2 与具体方案相关的选项 第15章 嵌入式机器学习 15.1 一个简单的数据挖掘应用 15.1.1 MessageClassifier() 15.1.2 updateData() 15.1.3 classifyMessage() 第16章 编写新的学习方案 16.1 一个分类器范例 16.1.1 buildClassifier() 16.1.2 makeTree() 16.1.3 computeInfoGain() 16.1.4 classifyInstance() 16.1.5 toSource() 16.1.6 main() 16.2 与实现分类器有关的惯例 第17章 Weka Explorer的辅导练习 17.1 Explorer界面简介 17.1.1 导入数据集 17.1.2 数据集编辑器 17.1.3 应用过滤器 17.1.4 可视化面板 17.1.5 分类器面板 17.2 最近邻学习和决策树 17.2.1 玻璃数据集 17.2.2 属性选择 17.2.3 类噪声以及最近邻学习 17.2.4 改变训练数据的数量 17.2.5 交互式建立决策树 17.3 分类边界 17.3.1 可视化1R 17.3.2 可视化最近邻学习 17.3.3 可视化朴素贝叶斯 17.3.4 可视化决策树和规则集 17.3.5 弄乱数据 17.4 预处理以及参数调整 17.4.1 离散化 17.4.2 离散化的更多方面 17.4.3 自动属性选择 17.4.4 自动属性选择的更多方面 17.4.5 自动参数调整 17.5 文档分类 17.5.1 包含字符串属性的数据 17.5.2 实际文档文类 17.5.3 探索StringToWordVector过滤器 17.6 挖掘关联规则 17.6.1 关联规则挖掘 17.6.2 挖掘一个真实的数据集 17.6.3 购物篮分析 参考文献 索引