دسترسی نامحدود
برای کاربرانی که ثبت نام کرده اند
برای ارتباط با ما می توانید از طریق شماره موبایل زیر از طریق تماس و پیامک با ما در ارتباط باشید
در صورت عدم پاسخ گویی از طریق پیامک با پشتیبان در ارتباط باشید
برای کاربرانی که ثبت نام کرده اند
درصورت عدم همخوانی توضیحات با کتاب
از ساعت 7 صبح تا 10 شب
دسته بندی: کامپیوتر ویرایش: نویسندگان: Ryan Mitchell, 陶俊杰, 陈小莉 سری: ISBN (شابک) : 9787115416292, 711541629X ناشر: 人民邮电出版社 سال نشر: 2016 تعداد صفحات: 222 زبان: Chinese فرمت فایل : PDF (درصورت درخواست کاربر به PDF، EPUB یا AZW3 تبدیل می شود) حجم فایل: 17 مگابایت
در صورت تبدیل فایل کتاب Python网络数据采集 به فرمت های PDF، EPUB، AZW3، MOBI و یا DJVU می توانید به پشتیبان اطلاع دهید تا فایل مورد نظر را تبدیل نمایند.
توجه داشته باشید کتاب Python网络数据采集 نسخه زبان اصلی می باشد و کتاب ترجمه شده به فارسی نمی باشد. وبسایت اینترنشنال لایبرری ارائه دهنده کتاب های زبان اصلی می باشد و هیچ گونه کتاب ترجمه شده یا نوشته شده به فارسی را ارائه نمی دهد.
این کتاب گردآوری داده های وب را معرفی می کند و راهنمایی جامع برای جمع آوری انواع داده ها در وب مدرن ارائه می دهد. بخش اول بر اصول اولیه جمع آوری داده های وب تمرکز دارد: نحوه استفاده از پایتون برای درخواست اطلاعات از یک وب سرور، نحوه پاسخگویی به سرور انجام پردازش های پایه و نحوه تعامل با وب سایت به وسیله ابزارهای خودکار قسمت دوم نحوه استفاده از خزنده های وب برای آزمایش وب سایت، پردازش خودکار و نحوه دسترسی به شبکه به روش های بیشتر را معرفی می کند.
本书介绍了网络数据采集,并为采集新式网络中的各种数据类型提供了全面的指导.第一部分重点介绍网络数据采集的基本原理:如何用Python从网络服务器请求信息,如何对服务器的响应进行基本处理,以及如何以自动化手段与网站进行交互.第二部分介绍如何用网络爬虫测试网站,自动化处理,以及如何通过更多的方式接入网络.
译者序 ix 前言 xi 第一部分 创建爬虫 第1章 初见网络爬虫 2 1.1 网络连接 2 1.2 BeautifulSoup简介 4 1.2.1 安装BeautifulSoup 5 1.2.2 运行BeautifulSoup 7 1.2.3 可靠的网络连接 8 第2章 复杂HTML解析 11 2.1 不是一直都要用锤子 11 2.2 再端一碗BeautifulSoup 12 2.2.1 BeautifulSoup的find()和findAll() 13 2.2.2 其他BeautifulSoup对象 15 2.2.3 导航树 16 2.3 正则表达式 19 2.4 正则表达式和BeautifulSoup 23 2.5 获取属性 24 2.6 Lambda表达式 24 2.7 超越BeautifulSoup 25 第3章 开始采集 26 3.1 遍历单个域名 26 3.2 采集整个网站 30 3.3 通过互联网采集 34 3.4 用Scrapy采集 38 第4章 使用API 42 4.1 API概述 43 4.2 API通用规则 43 4.2.1 方法 44 4.2.2 验证 44 4.3 服务器响应 45 4.4 Echo Nest 46 4.5 Twitter API 48 4.5.1 开始 48 4.5.2 几个示例 50 4.6 Google API 52 4.6.1 开始 52 4.6.2 几个示例 53 4.7 解析JSON数据 55 4.8 回到主题 56 4.9 再说一点API 60 第5章 存储数据 61 5.1 媒体文件 61 5.2 把数据存储到CSV 64 5.3 MySQL 65 5.3.1 安装MySQL 66 5.3.2 基本命令 68 5.3.3 与Python整合 71 5.3.4 数据库技术与最佳实践 74 5.3.5 MySQL里的“六度空间游戏” 75 5.4 Email 77 第6章 读取文档 80 6.1 文档编码 80 6.2 纯文本 81 6.3 CSV 85 6.4 PDF 87 6.5 微软Word和.docx 88 第二部分 高级数据采集 第7章 数据清洗 94 7.1 编写代码清洗数据 94 7.2 数据存储后再清洗 98 第8章 自然语言处理 103 8.1 概括数据 104 8.2 马尔可夫模型 106 8.3 自然语言工具包 112 8.3.1 安装与设置 112 8.3.2 用NLTK做统计分析 113 8.3.3 用NLTK做词性分析 115 8.4 其他资源 119 第9章 穿越网页表单与登录窗口进行采集 120 9.1 Python Requests库 120 9.2 提交一个基本表单 121 9.3 单选按钮、复选框和其他输入 123 9.4 提交文件和图像 124 9.5 处理登录和cookie 125 9.6 其他表单问题 127 第10章 采集JavaScript 128 10.1 JavaScript简介 128 10.2 Ajax和动态HTML 131 10.3 处理重定向 137 第11章 图像识别与文字处理 139 11.1 OCR库概述 140 11.1.1 Pillow 140 11.1.2 Tesseract 140 11.1.3 NumPy 141 11.2 处理格式规范的文字 142 11.3 读取验证码与训练Tesseract 146 11.4 获取验证码提交答案 151 第12章 避开采集陷阱 154 12.1 道德规范 154 12.2 让网络机器人看起来像人类用户 155 12.2.1 修改请求头 155 12.2.2 处理cookie 157 12.2.3 时间就是一切 159 12.3 常见表单安全措施 159 12.3.1 隐含输入字段值 159 12.3.2 避免蜜罐 160 12.4 问题检查表 162 第13章 用爬虫测试网站 164 13.1 测试简介 164 13.2 Python单元测试 165 13.3 Selenium单元测试 168 13.4 Python单元测试与Selenium单元测试的选择 172 第14章 远程采集 174 14.1 为什么要用远程服务器 174 14.1.1 避免IP地址被封杀 174 14.1.2 移植性与扩展性 175 14.2 Tor代理服务器 176 14.3 远程主机 177 14.3.1 从网站主机运行 178 14.3.2 从云主机运行 178 14.4 其他资源 179 14.5 勇往直前 180 附录A Python简介 181 附录B 互联网简介 184 附录C 网络数据采集的法律与道德约束 188 作者简介 200 封面介绍 200