TOP
0
0
【23號簡體館日】限時三天領券享優惠!!
Python網絡爬蟲從入門到精通(簡體書)
滿額折

Python網絡爬蟲從入門到精通(簡體書)

人民幣定價:99.8 元
定  價:NT$ 599 元
優惠價:87521
領券後再享88折
海外經銷商無庫存,到貨日平均30天至45天
可得紅利積點:15 點
相關商品
商品簡介
作者簡介
名人/編輯推薦
目次

商品簡介

《Python網絡爬蟲從入門到精通》從初學者角度出發,通過通俗易懂的語言、豐富多彩的實例,詳細介紹了使用Python實現網絡爬蟲開發應該掌握的技術。全書共分19章,內容包括初識網絡爬蟲、了解Web前端、請求模塊urllib、請求模塊urllib3、請求模塊requests、高級網絡請求模塊、正則表達式、XPath解析、解析數據的BeautifulSoup、爬取動態渲染的信息、多線程與多進程爬蟲、數據處理、數據存儲、數據可視化、App抓包工具、識別驗證碼、Scrapy爬蟲框架、Scrapy_Redis分布式爬蟲、數據偵探。書中所有知識都結合具體實例進行介紹,涉及的程序代碼給出了詳細的注釋,讀者可輕松領會網絡爬蟲程序開發的精髓,快速提高開發技能。


作者簡介

明日科技,全稱是吉林省明日科技有限公司,是一家專業從事軟件開發、教育培訓以及軟件開發教育資源整合的高科技公司,其編寫的教材非常注重選取軟件開發中的必需、常用內容,同時也很注重內容的易學、方便性以及相關知識的拓展性,深受讀者喜愛。其教材多次榮獲“全行業優秀暢銷品種”“全國高校出版社優秀暢銷書”等獎項,多個品種長期位居同類圖書銷售排行榜的前列。

名人/編輯推薦

《Python網絡爬蟲從入門到精通》從零基礎開始,提供了Python網絡爬蟲開發從入門到編程高手所必需的各類知識。無論有沒有Python基礎,通過本書你都能最終成為網絡爬蟲高手。

(1)主流技術,全面解析。本書涵蓋網頁抓取、App抓包、識別驗證碼、Scrapy爬蟲框架,以及Scrapy_Redis分布式爬蟲等技術,一本書教你掌握網絡爬蟲領域的主流核心技術。

(2)由淺入深,循序漸進。本書引領讀者按照基礎知識→核心技術→高級應用→項目實戰循序漸進地學習,符合認知規律。

(3)邊學邊練,學以致用。200個應用示例+1個行業項目案例+136集Python零基礎掃盲課,邊學邊練,在實踐中提升技能。

(4)精彩欄目,貼心提醒。本書設置了很多“注意”“說明”“技巧”等小欄目,讓讀者在學習的過程中更輕松地理解相關知識點及概念,更快地掌握數據分析技能和應用技巧。

(5)在線解答,高效學習。在線答疑QQ及技術支持網站,不定期進行在線直播課程。


在大數據、人工智能應用越來越普遍的今天,Python可以說是當下世界上最熱門、應用最廣泛的編程語言之一,在人工智能、爬蟲、數據分析、遊戲、自動化運維等各個方面,無處不見其身影。隨著大數據時代的來臨,數據的收集與統計占據了重要地位,而數據的收集工作在很大程度上需要通過網絡爬蟲來爬取,所以網絡爬蟲技術變得十分重要。
本書提供了Python網絡爬蟲開發從入門到編程高手所必需的各類知識,共分4篇。
第1篇:基礎知識。本篇內容主要介紹網絡爬蟲入門知識,包括初識網絡爬蟲、搭建網絡爬蟲的開發環境、Web前端知識、Python自帶的網絡請求模塊urllib、第三方請求模塊urllib3和requests,以及高級網絡請求模塊。結合大量的圖示、舉例等使讀者快速掌握網絡爬蟲開發的必備知識,為以後編寫網絡爬蟲奠定堅實的基礎。
第2篇:核心技術。本篇主要介紹如何解析網絡數據(包括正則表達式解析、Xpath解析和BeautifulSoup解析),以及如何爬取動態渲染的信息、多線程與多進程爬蟲、數據處理與數據存儲等相關知識。學習完這一部分,讀者可熟練掌握如何通過網絡爬蟲獲取網絡數據並存儲數據。
第3篇:高級應用。本篇主要介紹數據可視化、App抓包工具、識別驗證碼、Scrapy爬蟲框架,以及Scrapy_Redis分布式爬蟲等知識。
第4篇:項目實戰。本篇通過一個完整的數據偵探爬蟲項目,運用軟件工程與網絡爬蟲的設計思想,讓讀者學習如何對電商數據進行網絡爬蟲軟件項目的實踐開發。書中按照“需求分析→系統設計→公共模塊設計→數據庫設計→實現項目”的流程進行介紹,帶領讀者一步一步親身體驗開發項目的全過程。
本書特點
由淺入深,循序漸進。本書以初中級程序員為物件,采用圖文結合、循序漸進的編排方式,從網絡爬蟲開發環境的搭建到網絡爬蟲的核心技術應用,最後通過一個完整的實戰項目對網絡爬蟲的開發進行了詳細講解,幫助讀者快速掌握網絡爬蟲開發技術,全面提升開發經驗。
實例典型,輕松易學。通過例子學習是最好的學習方式,本書通過“一個知識點、一個例子、一個結果、一段評析”的模式,透徹詳盡地講述了實際開發中所需的各類知識。另外,為了便於讀者閱讀程序代碼,快速學習編程技能,書中幾乎每行代碼都提供了注釋。
項目實戰,經驗累積。本書通過一個完整的電商數據爬取項目,講解實際爬蟲項目的完整開發過程,帶領讀者親身體驗開發項目的全過程,積累項目經驗。
精彩欄目,貼心提醒。本書根據需要在各章使用了很多“注意”“說明”“技巧”等小欄目,讓讀者可以在學習過程中更輕松地理解相關知識點及概念,並輕松地掌握個別技術的應用技巧。
讀者物件:初學編程的自學者、編程愛好者、大中專院校的老師和學生、相關培訓機構的老師和學員、 畢業設計的學生、初中級程序開發人員、程序測試及維護人員、參加實習的“菜鳥”程序員。
讀者服務:本書附贈的各類學習資源,讀者可登錄清華大學出版社網站,在對應圖書頁面下獲取其下載方式。也可掃描圖書封底的“文泉云盤”二維碼,獲取其下載方式。
感謝您購買本書,希望本書能成為您編程路上的領航者。
“零門檻”編程,一切皆有可能。
祝讀書快樂!


目次

第1篇 基礎知識
第1章 初識網絡爬蟲 2
1.1 網絡爬蟲概述 2
1.2 網絡爬蟲的分類 2
1.3 網絡爬蟲的基本原理 3
1.4 搭建開發環境 4
1.4.1 安裝Anaconda 4
1.4.2 PyCharm的下載與安裝 7
1.4.3 配置PyCharm 9
1.4.4 測試PyCharm 13
1.5 小結 15
第2章 了解Web前端 16
2.1 HTTP基本原理 16
2.1.1 HTTP協議 16
2.1.2 HTTP與Web服務器 16
2.1.3 瀏覽器中的請求和響應 18
2.2 HTML語言 19
2.2.1 什麼是HTML 19
2.2.2 標簽、元素、結構概述 19
2.2.3 HTML的基本標簽 21
2.3 CSS層疊樣式表 22
2.3.1 CSS概述 22
2.3.2 屬性選擇器 23
2.3.3 類和ID選擇器 24
2.4 JavaScript動態腳本語言 24
2.5 小結 27
第3章 請求模塊urllib 28
3.1 urllib簡介 28
3.2 使用urlopen()方法發送請求 28
3.2.1 發送GET請求 29
3.2.2 發送POST請求 30
3.2.3 設置網絡超時 31
3.3 復雜的網絡請求 32
3.3.1 設置請求頭 32
3.3.2 Cookies的獲取與設置 34
3.3.3 設置代理IP 39
3.4 異常處理 40
3.5 解析鏈接 41
3.5.1 拆分URL 42
3.5.2 組合URL 43
3.5.3 連接URL 44
3.5.4 URL的編碼與解碼 45
3.5.5 URL參數的轉換 46
3.6 小結 47
第4章 請求模塊urllib3 48
4.1 urllib3簡介 48
4.2 發送網絡請求 49
4.2.1 GET請求 49
4.2.2 POST請求 50
4.2.3 重試請求 51
4.2.4 處理響應內容 51
4.3 復雜請求的發送 53
4.3.1 設置請求頭 53
4.3.2 設置超時 54
4.3.3 設置代理 55
4.4 上傳文件 56
4.5 小結 57
第5章 請求模塊requests 58
5.1 請求方式 58
5.1.1 GET請求 59
5.1.2 對響應結果進行utf-8編碼 59
5.1.3 爬取二進制數據 60
5.1.4 GET(帶參)請求 61
5.1.5 POST請求 62
5.2 復雜的網絡請求 63
5.2.1 添加請求頭headers 63
5.2.2 驗證Cookies 64
5.2.3 會話請求 65
5.2.4 驗證請求 66
5.2.5 網絡超時與異常 67
5.2.6 上傳文件 68
5.3 代理服務 69
5.3.1 代理的應用 69
5.3.2 獲取免費的代理IP 70
5.3.3 檢測代理IP是否有效 71
5.4 小結 72
第6章 高級網絡請求模塊 73
6.1 Requests-Cache的安裝與測試 73
6.2 緩存的應用 74
6.3 強大的Requests-HTML模塊 76
6.3.1 使用Requests-HTML實現網絡請求 76
6.3.2 數據的提取 78
6.3.3 獲取動態加載的數據 82
6.4 小結 85
第2篇 核心技術
第7章 正則表達式 88
7.1 正則表達式基礎 88
7.1.1 行定位符 88
7.1.2 元字符 89
7.1.3 限定符 89
7.1.4 字符類 90
7.1.5 排除字符 90
7.1.6 選擇字符 90
7.1.7 轉義字符 91
7.1.8 分組 91
7.1.9 在Python中使用正則表達式語法 91
7.2 使用match()進行匹配 92
7.2.1 匹配是否以指定字符串開頭 93
7.2.2 匹配任意開頭的字符串 94
7.2.3 匹配多個字符串 94
7.2.4 獲取部分內容 94
7.2.5 匹配指定首尾的字符串 95
7.3 使用search()進行匹配 95
7.3.1 獲取第一匹配值 96
7.3.2 可選匹配 96
7.3.3 匹配字符串邊界 97
7.4 使用findall()進行匹配 97
7.4.1 匹配所有指定字符開頭字符串 98
7.4.2 貪婪匹配 98
7.4.3 非貪婪匹配 99
7.5 字符串處理 100
7.5.1 替換字符串 100
7.5.2 分割字符串 101
7.6 案例:爬取編程e學網視頻 102
7.6.1 查找視頻頁面 102
7.6.2 分析視頻地址 103
7.6.3 實現視頻下載 105
7.7 小結 105
第8章 XPath解析 106
8.1 XPath概述 106
8.2 XPath的解析操作 107
8.2.1 解析HTML 107
8.2.2 獲取所有節點 109
8.2.3 獲取子節點 110
8.2.4 獲取父節點 112
8.2.5 獲取文本 112
8.2.6 屬性匹配 113
8.2.7 獲取屬性 115
8.2.8 按序獲取 116
8.2.9 節點軸獲取 117
8.3 案例:爬取豆瓣電影Top 250 118
8.3.1 分析請求地址 118
8.3.2 分析信息位置 119
8.3.3 爬蟲代碼的實現 120
8.4 小結 121
第9章 解析數據的BeautifulSoup 122
9.1 使用BeautifulSoup解析數據 122
9.1.1 BeautifulSoup的安裝 122
9.1.2 解析器 123
9.1.3 BeautifulSoup的簡單應用 124
9.2 獲取節點內容 125
9.2.1 獲取節點對應的代碼 125
9.2.2 獲取節點屬性 126
9.2.3 獲取節點包含的文本內容 127
9.2.4 嵌套獲取節點內容 128
9.2.5 關聯獲取 129
9.3 方法獲取內容 133
9.3.1 find_all()獲取所有符合條件的內容 133
9.3.2 find()獲取第一個匹配的節點內容 136
9.3.3 其他方法 137
9.4 CSS選擇器 137
9.5 小結 140
第10章 爬取動態渲染的信息 141
10.1 Ajax數據的爬取 141
10.1.1 分析請求地址 141
10.1.2 提取視頻標題與視頻地址 144
10.1.3 視頻的批量下載 145
10.2 使用Selenium爬取動態加載的信息 146
10.2.1 安裝Selenium模塊 146
10.2.2 下載瀏覽器驅動 147
10.2.3 Selenium模塊的使用 147
10.2.4 Selenium模塊的常用方法 149
10.3 Splash的爬蟲應用 150
10.3.1 搭建Splash環境(Windows 10系統) 150
10.3.2 搭建Splash環境(Windows 7系統) 153
10.3.3 Splash中的HTTP API 156
10.3.4 執行lua自定義腳本 159
10.4 小結 160
第11章 多線程與多進程爬蟲 161
11.1 什麼是線程 161
11.2 創建線程 161
11.2.1 使用threading模塊創建線程 162
11.2.2 使用Thread子類創建線程 163
11.3 線程間通信 163
11.3.1 什麼是互斥鎖 165
11.3.2 使用互斥鎖 165
11.3.3 使用隊列在線程間通信 167
11.4 什麼是進程 169
11.5 創建進程的常用方式 169
11.5.1 使用multiprocessing模塊創建進程 169
11.5.2 使用Process子類創建進程 172
11.5.3 使用進程池Pool創建進程 174
11.6 進程間通信 175
11.6.1 隊列簡介 177
11.6.2 多進程隊列的使用 177
11.6.3 使用隊列在進程間通信 179
11.7 多進程爬蟲 180
11.8 小結 185
第12章 數據處理 186
12.1 初識Pandas 186
12.2 Series物件 187
12.2.1 圖解Series物件 187
12.2.2 創建一個Series物件 188
12.2.3 手動設置Series索引 188
12.2.4 Series的索引 189
12.2.5 獲取Series索引和值 190
12.3 DataFrame物件 190
12.3.1 圖解DataFrame物件 191
12.3.2 創建一個DataFrame物件 192
12.3.3 DataFrame的重要屬性和函數 194
12.4 數據的增、刪、改、查 195
12.4.1 增加數據 195
12.4.2 刪除數據 196
12.4.3 修改數據 197
12.4.4 查詢數據 198
12.5 數據清洗 199
12.5.1 NaN數據處理 199
12.5.2 去除重復數據 202
12.6 數據轉換 204
12.6.1 DataFrame轉換為字典 204
12.6.2 DataFrame轉換為列表 206
12.6.3 DataFrame轉換為元組 206
12.7 導入外部數據 207
12.7.1 導入.xls或.xlsx文件 207
12.7.2 導入.csv文件 211
12.7.3 導入.txt文本文件 213
12.7.4 導入HTML網頁 213
12.8 數據排序與排名 214
12.8.1 數據排序 214
12.8.2 數據排名 217
12.9 簡單的數據計算 219
12.9.1 求和(sum函數) 219
12.9.2 求均值(mean函數) 220
12.9.3 求最大值(max函數) 221
12.9.4 求最小值(min函數) 221
12.10 數據分組統計 222
12.10.1 分組統計groupby函數 222
12.10.2 對分組數據進行迭代 224
12.10.3 通過字典和Series物件進行分組統計 225
12.11 日期數據處理 227
12.11.1 DataFrame的日期數據轉換 227
12.11.2 dt物件的使用 229
12.11.3 獲取日期區間的數據 230
12.11.4 按不同時期統計並顯示數據 231
12.12 小結 233
第13章 數據存儲 234
13.1 文件的存取 234
13.1.1 基本文件操作TXT 234
13.1.2 存儲CSV文件 239
13.1.3 存儲Excel文件 240
13.2 SQLite數據庫 241
13.2.1 創建數據庫文件 242
13.2.2 操作SQLite 242
13.3 MySQL數據庫 244
13.3.1 下載與安裝MySQL 244
13.3.2 安裝PyMySQL 248
13.3.3 連接數據庫 249
13.3.4 創建數據表 250
13.3.5 操作MySQL數據表 251
13.4 小結 252
第3篇 高級應用
第14章 數據可視化 254
14.1 Matplotlib概述 254
14.1.1 Matplotlib簡介 254
14.1.2 安裝Matplotlib 257
14.2 圖表的常用設置 258
14.2.1 基本繪圖plot函數 258
14.2.2 設置畫布 261
14.2.3 設置坐標軸 262
14.2.4 添加文本標簽 265
14.2.5 設置標題和圖例 266
14.2.6 添加注釋 268
14.3 常用圖表的繪制 269
14.3.1 繪制折線圖 270
14.3.2 繪制柱形圖 271
14.3.3 繪制餅形圖 273
14.4 案例:可視化二手房數據查詢系統 278
14.5 小結 285
第15章 App抓包工具 286
15.1 Charles工具的下載與安裝 286
15.2 SSL證書的安裝 288
15.2.1 安裝PC端證書 288
15.2.2 設置代理 291
15.2.3 配置網絡 292
15.2.4 安裝手機端證書 294
15.3 小結 296
第16章 識別驗證碼 297
16.1 字符驗證碼 297
16.1.1 搭建OCR環境 297
16.1.2 下載驗證碼圖片 298
16.1.3 識別驗證碼 299
16.2 第三方驗證碼識別 301
16.3 滑動拼圖驗證碼 305
16.4 小結 307
第17章 Scrapy爬蟲框架 308
17.1 了解Scrapy爬蟲框架 308
17.2 搭建Scrapy爬蟲框架 309
17.2.1 使用Anaconda安裝Scrapy 309
17.2.2 Windows系統下配置Scrapy 310
17.3 Scrapy的基本應用 312
17.3.1 創建Scrapy項目 312
17.3.2 創建爬蟲 313
17.3.3 獲取數據 316
17.3.4 將爬取的數據保存為多種格式的文件 318
17.4 編寫Item Pipeline 319
17.4.1 項目管道的核心方法 319
17.4.2 將信息存儲至數據庫 320
17.5 自定義中間件 324
17.5.1 設置隨機請求頭 325
17.5.2 設置Cookies 327
17.5.3 設置代理ip 330
17.6 文件下載 332
17.7 小結 334
第18章 Scrapy_Redis分布式爬蟲 335
18.1 安裝Redis數據庫 335
18.2 Scrapy-Redis模塊 337
18.3 分布式爬取中文日報新聞數據 338
18.3.1 分析網頁地址 338
18.3.2 創建MySQL數據表 339
18.3.3 創建Scrapy項目 340
18.3.4 啟動分布式爬蟲 344
18.4 自定義分布式爬蟲 348
18.5 小結 354
第4篇 項目實戰
第19章 數據偵探 356
19.1 需求分析 356
19.2 系統設計 356
19.2.1 系統功能結構 356
19.2.2 系統業務流程 357
19.2.3 系統預覽 358
19.3 系統開發必備 360
19.3.1 開發工具準備 360
19.3.2 文件夾組織結構 360
19.4 主窗體的UI設計 361
19.4.1 主窗體的布局 361
19.4.2 主窗體顯示效果 363
19.5 設計數據庫表結構 364
19.6 爬取數據 365
19.6.1 獲取京東商品熱賣排行信息 365
19.6.2 獲取價格信息 370
19.6.3 獲取評價信息 372
19.6.4 定義數據庫操作文件 375
19.7 主窗體的數據展示 378
19.7.1 顯示前10名熱賣榜圖文信息 378
19.7.2 顯示關注商品列表 382
19.7.3 顯示商品分類比例餅圖 389
19.8 外設產品熱賣榜 392
19.9 商品預警 395
19.9.1 關注商品中、差評預警 395
19.9.2 關注商品價格變化預警 398
19.9.3 更新關注商品信息 400
19.10 系統功能 401
19.11 小結 403


您曾經瀏覽過的商品

購物須知

大陸出版品因裝訂品質及貨運條件與台灣出版品落差甚大,除封面破損、內頁脫落等較嚴重的狀態,其餘商品將正常出貨。

特別提醒:部分書籍附贈之內容(如音頻mp3或影片dvd等)已無實體光碟提供,需以QR CODE 連結至當地網站註冊“並通過驗證程序”,方可下載使用。

無現貨庫存之簡體書,將向海外調貨:
海外有庫存之書籍,等候約45個工作天;
海外無庫存之書籍,平均作業時間約60個工作天,然不保證確定可調到貨,尚請見諒。

為了保護您的權益,「三民網路書店」提供會員七日商品鑑賞期(收到商品為起始日)。

若要辦理退貨,請在商品鑑賞期內寄回,且商品必須是全新狀態與完整包裝(商品、附件、發票、隨貨贈品等)否則恕不接受退貨。

優惠價:87 521
海外經銷商無庫存,到貨日平均30天至45天

暢銷榜

客服中心

收藏

會員專區