دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
ویرایش:
نویسندگان: (加)海金
سری: 经典原版书库
ISBN (شابک) : 7111265289, 9787111265283
ناشر: 机械工业出版社
سال نشر: 2009
تعداد صفحات: 594
زبان: Chinese
فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود)
حجم فایل: 73 مگابایت
در صورت تبدیل فایل کتاب 神经网络与机器学习: 英文版·第3版 به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب 神经网络与机器学习: 英文版·第3版 نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
封面 书名 版权 前言 目录 第0章 导言 0.1什么是神经网络 0.2人类大脑 0.3神经元模型 0.4被看作有向图的神经网络 0.5反馈 0.6网络结构 0.7知识表示 0.8学习过程 0.9学习任务 0.10结束语 注释和参考文献 第1章Rosenblatt感知器 1.1引言 1.2感知器 1.3感知器收敛定理 1.4高斯环境下感知器与贝叶斯分类器的关系 1.5计算机实验:模式分类 1.6批量感知器算法 1.7小结和讨论 注释和参考文献 习题 第2章 通过回归建立模型 2.1引言 2.2线性回归模型:初步考虑 2.3参数向量的最大后验估计 2.4正则最小二乘估计和MAP估计之间的关系 2.5计算机实验:模式分类 2.6最小描述长度原则 2.7固定样本大小考虑 2.8工具变量方法 2.9小结和讨论 注释和参考文献 习题 第3章 最小均方算法 3.1引言 3.2 LMS算法的滤波结构 3.3无约束最优化:回顾 3.4维纳滤波器 3.5最小均方算法 3.6用马尔可夫模型来描画 LMS算法和维纳滤波器的偏差 3.7朗之万方程:布朗运动的特点 3.8 Kushner直接平均法 3.9小学习率参数下统计LMS学习理论 3.10计算机实验I:线性预测 3.11计算机实验Ⅱ:模式分类 3.12 LMS算法的优点和局限 3.13学习率退火方案 3.14小结和讨论 注释和参考文献 习题 第4章 多层感知器 4.1引言 4.2一些预备知识 4.3批量学习和在线学习 4.4反向传播算法 4.5异或问题 4.6改善反向传播算法性能的试探法 4.7计算机实验:模式分类 4.8反向传播和微分 4.9 Hessian矩阵及其在在线学习中的规则 4.10学习率的最优退火和自适应控制 4.11泛化 4.12函数逼近 4.13交叉验证 4.14复杂度正则化和网络修剪 4.15反向传播学习的优点和局限 4.16作为最优化问题看待的监督学习 4.17卷积网络 4.18非线性滤波 4.19小规模和大规模学习问题 4.20小结和讨论 注释和参考文献 习题 第5章 核方法和径向基函数网络 5.1引言 5.2模式可分性的Cover定理 5.3插值问题 5.4径向基函数网络 5.5 K-均值聚类 5.6权向量的递归最小二乘估计 5.7 RBF网络的混合学习过程 5.8计算机实验:模式分类 5.9高斯隐藏单元的解释 5.10核回归及其与RBF网络的关系 5.11小结和讨论 注释和参考文献 习题 第6章 支持向量机 6.1引言 6.2线性可分模式的最优超平面 6.3不可分模式的最优超平面 6.4使用核方法的支持向量机 6.5支持向量机的设计 6.6 XOR问题 6.7计算机实验:模式分类 6.8回归:鲁棒性考虑 6.9线性回归问题的最优化解 6.10表示定理和相关问题 6.11小结和讨论 注释和参考文献 习题 第7章 正则化理论 7.1引言 7.2良态问题的Hadamard条件 7.3 Tikhonov正则化理论 7.4正则化网络 7.5广义径向基函数网络 7.6再论正则化最小二乘估计 7.7对正则化的附加要点 7.8正则化参数估计 7.9半监督学习 7.10流形正则化:初步的考虑 7.11可微流形 7.12广义正则化理论 7.13光谱图理论 7.14广义表示定理 7.15拉普拉斯正则化最小二乘算法 7.16用半监督学习对模式分类的实验 7.17小结和讨论 注释和参考文献 习题 第8章 主分量分析 8.1引言 8.2自组织原则 8.3自组织的特征分析 8.4主分量分析:扰动理论 8.5基于Hebb的最大特征滤波器 8.6基于Hebb的主分量分析 8.7计算机实验:图像编码 8.8核主分量分析 8.9自然图像编码中的基本问题 8.10核Hebb算法 8.11小结和讨论 注释和参考文献 习题 第9章 自组织映射 9.1引言 9.2两个基本的特征映射模型 9.3自组织映射 9.4特征映射的性质 9.5计算机实验I:利用SOM解网格动力学问题 9.6上下文映射 9.7分层向量量化 9.8核自组织映射 9.9计算机实验Ⅱ:利用核SOM解点阵动力学问题 9.10核SOM和相对熵之间的关系 9.11小结和讨论 注释和参考文献 习题 第10章 信息论学习模型 10.1引言 10.2熵 10.3最大熵原则 10.4互信息 10.5相对熵 10.6系词 10.7互信息作为最优化的目标函数 10.8最大互信息原则 10.9最大互信息和冗余减少 10.10空间相干特征 10.11空间非相干特征 10.12独立分量分析 10.13自然图像的稀疏编码以及与ICA编码的比较 10.14独立分量分析的自然梯度学习 10.15独立分量分析的最大似然估计 10.16盲源分离的最大熵学习 10.17独立分量分析的负熵最大化 10.18相关独立分量分析 10.19速率失真理论和信息瓶颈 10.20数据的最优流形表达 10.21计算机实验:模式分类 10.22小结和讨论 注释和参考文献 习题 第11章 植根于统计力学的随机方法 11.1引言 11.2统计力学 11.3马尔可夫链 11.4 Metropolis算法 11.5模拟退火 11.6 Gibbs抽样 11.7 Boltzmann机 11.8 logistic信度网络 11.9深度信度网络 11.10确定性退火 11.11和EM算法的类比 11.12小结和讨论 注释和参考文献 习题 第12章 动态规划 12.1引言 12.2马尔可夫决策过程 12.3 Bellman最优准则 12.4策略迭代 12.5值迭代 12.6逼近动态规划:直接法 12.7时序差分学习 12.8 Q-学习 12.9逼近动态规划:非直接法 12.10最小二乘策略评估 12.11逼近策略迭代 12.12小结和讨论 注释和参考文献 习题 第13章 神经动力学 13.1引言 13.2动态系统 13.3平衡状态的稳定性 13.4 吸引子 13.5神经动态模型 13.6作为递归网络范例的吸引子操作 13.7 Hopfield模型 13.8 Cohen-Grossberg定理 13.9盒中脑状态模型 13.10奇异吸引子和混沌 13.11混沌过程的动态重构 13.12小结和讨论 注释和参考文献 习题 第14章 动态系统状态估计的贝叶斯滤波 14.1引言 14.2状态空间模型 14.3卡尔曼滤波器 14.4发散现象及平方根滤波 14.5扩展的卡尔曼滤波器 14.6贝叶斯滤波器 14.7数值积分卡尔曼滤波器:基于卡尔曼滤波器 14.8粒子滤波器 14.9计算机实验:扩展的卡尔曼滤波器和粒子滤波器对比评价 14.10大脑功能建模中的卡尔曼滤波 14.11小结和讨论 注释和参考文献 习题 第15章 动态驱动递归网络 15.1引言 15.2递归网络体系结构 15.3通用逼近定理 15.4 可控性和可观测性 15.5递归网络的计算能力 15.6学习算法 15.7通过时间的反向传播 15.8实时递归学习 15.9递归网络的消失梯度 15.10利用非线性逐次状态估计的递归网络监督学习框架 15.11计算机实验:Mackay-Glass吸引子的动态重构 15.12自适应考虑 15.13实例学习:应用于神经控制的模型参考 15.14小结和讨论 注释和参考文献 习题 参考文献