别怕,Excel VBA其实很简单(電子書)
商品資訊
ISBN:9787301314005
出版社:北京大学出版社有限公司
作者:Excel Home
出版日:2020/08/01
裝訂:電子書
版次:3版
商品碼:2222221164264
定價
:NT$ 345 元優惠價
:80 折 276 元
閱讀器:書紐電子書
下單可得紅利積點:8 點
商品簡介
作者簡介
名人/編輯推薦
目次
相關商品
商品簡介
對於大部分沒有編程基礎的職場人士來說,在學習VBA時往往會有很大的畏難情緒。本書正是針對這樣的人群,用淺顯易懂的語言和生動形象的比喻,並配以大量插畫,講解Excel VBA中看似複雜的概念和代碼。從簡單的宏錄製與運行、VBA編程環境和基礎語法的介紹,到常用Excel對象的操作與控制、事件的靈活使用、設計自定義的操作界面、調試與優化編寫的代碼,都進行了形象的介紹。 《別怕,Excel VBA其實很簡單(第3版)》適合那些希望提高工作效率的職場人士,特別是經常需要處理和分析大量數據的用戶,也適合高校師生閱讀和學習。
作者簡介
Excel Home,是微軟在線社區聯盟成員,全球華語Excel資源網站,擁有大量原創技術文章、視頻教程、加載宏及模板。Excel Home是一個學習氛圍濃厚的技術交流社區,中國大陸及中國港臺各行各業身懷絕技的Office高手都彙聚於此,目前已有三百多萬辦公人士選擇成為它的註冊會員。 Excel Home已精心編寫並出版Office領域的圖書60餘種,截至2016年春節,圖書銷量累計達120多萬冊。
名人/編輯推薦
一句頂一萬句的“懶人心法”,教你一鍵搞定所有報表!
久經讀者和市場檢驗的超級暢銷書,升級!
1.暢銷:全新版本重磅升級,上一版長期雄踞網店VBA類圖書暢銷書榜首,久經讀者和市場檢驗;2.濃縮:以經典案例為主導,著重體現Excel VBA以一當十的核心功能;3.特色:用生動形象的比喻和趣味十足的插畫進行知識講解,淺顯易懂,學習不再枯燥;4.高效:一句頂一萬句的“懶人心法”,教你一鍵搞定所有報表;5.超值:免費贈送書中相關案例文件及視頻教學資源,各種“疑難雜症”輕鬆破除!
久經讀者和市場檢驗的超級暢銷書,升級!
1.暢銷:全新版本重磅升級,上一版長期雄踞網店VBA類圖書暢銷書榜首,久經讀者和市場檢驗;2.濃縮:以經典案例為主導,著重體現Excel VBA以一當十的核心功能;3.特色:用生動形象的比喻和趣味十足的插畫進行知識講解,淺顯易懂,學習不再枯燥;4.高效:一句頂一萬句的“懶人心法”,教你一鍵搞定所有報表;5.超值:免費贈送書中相關案例文件及視頻教學資源,各種“疑難雜症”輕鬆破除!
目次
目 錄
第一章 為什麼選擇用Python11.1 易於使用3
1.2 兼容Hadoop3
1.3 可擴展和靈活性3
1.4 良好的社區支持和開發環境3
1.5 在數據分析領域的優勢4
1.6 總結4
第二章 大數據開發環境的搭建52.1 安裝大數據集成環境HDP6
2.2 安裝Spark環境(Windows)9
2.3 自行安裝大數據開發環境10
2.4 總結21
第三章 構建分析數據223.1 分析數據的說明23
3.2 導入數據到HDP SandBox中25
3.3 導入自安裝的環境中使用28
3.4 導入Windows的Spark中29
3.5 導入 Northwind 數據庫30
3.6 總結32
第四章 Python對Hadoop的操作334.1 Snakebite的說明34
4.2 HDFS命令說明36
4.3 Snakebite Client類的使用38
4.4 Snakebite CLI的使用40
4.5 總結42
第五章 Python對Hive的操作435.1 Hive說明44
5.2 使用PyHive47
5.3 使用Python編寫Hive UDF49
5.4 Impyla的使用51
5.5 Hive SQL調優方法52
5.6 總結53
第六章 Python對HBase的操作546.1 HBase說明55
6.2 HBase Shell命令57
6.3 HappyBase說明62
6.4 HappyBase的使用66
6.5 總結70
第七章 Python集成到Pig717.1 Pig說明72
7.2 Pig Latin的使用74
7.3 Python Pig的整合78
7.4 總結81
第八章 PySpark Shell應用838.1 操作步驟84
8.2 應用對象84
8.3 Spark核心模塊86
8.4 Spark Shell的使用87
8.5 PySpark Shell的使用92
8.6 總結95
第九章 PySpark對RDD操作969.1 Spark RDD說明97
9.2 RDD API說明101
9.3 在API函數中使用Lambda表達式108
9.4 從HDFS中讀取數據並以SequenceFile格式存儲110
9.5 讀取CSV文件處理並存儲112
9.6 讀取Json文件處理114
9.7 通過RDD計算圓周率115
9.8 查看RDD計算的狀態116
9.9 總結118
第十章 PySpark對DataFrame的操作11910.1 Spark DataFrame說明120
10.2 DataFrame API總述122
10.3 DataFrame數據結構API126
10.4 DataFrame數據處理API140
10.5 Postgresql和DataFrame145
10.6 CSV和DataFrame147
10.7 Json和DataFrame149
10.8 Numpy、Pandas和DataFrame151
10.9 RDD和DataFrame152
10.10 HDFS和DataFrame153
10.11 Hive和DataFrame154
10.12 HBase和DataFrame155
10.13 總結157
第十一章 PySpark對Streaming的操作15811.1 Spark Streaming說明159
11.2 Spark Streaming API160
11.3 網絡數據流165
11.4 文件數據流167
11.5 Kafka數據流171
11.6 Flume數據流173
11.7 QueueStream數據流174
11.8 使用StreamingListener監聽數據流175
11.9 總結177
第十二章 PySpark SQL17812.1 關於Spark SQL179
12.2 Spark SQL相關API180
12.3 Spark SQL使用步驟189
12.4 Postgresql和Spark SQL190
12.5 CSV和Spark SQL192
12.6 Json和Spark SQL193
12.7 HDFS和Spark SQL194
12.8 Hive和Spark SQL195
12.9 UDF和Spark SQL197
12.10 Streaming和Spark SQL199
12.11 Spark SQL優化200
12.12 總結201
第十三章 分析方法及構架的說明20213.1 統計的概念和數據可視化203
13.2 數據分析方法的探討206
13.3 開發構架說明209
13.4 總結整合說明210
第十四章 集成分析21414.1 SQL窗口函數的說明215
14.2 Hive SQL分析221
14.3 Spark SQL分析225
14.4 HBase SQL分析229
14.5 對接Numpy、Pandas的分析232
14.6 對接Blaze分析241
14.7 總結244
第十五章 數據挖掘24515.1 關於機器學習246
15.2 PySpark機器學習包248
15.3 特徵的抽取、轉換和選擇250
15.4 PySpark機器學習包的使用256
15.5 集成TensorFlow277
15.6 集成scikit-learn279
15.7 總結282
第十六章 數據可視化28316.1 標簽雲284
16.2 Zeppelin的使用289
16.3 Mathplotlib的使用293
16.4 Superset的使用301
16.5 總結308
附 錄.309
第一章 為什麼選擇用Python11.1 易於使用3
1.2 兼容Hadoop3
1.3 可擴展和靈活性3
1.4 良好的社區支持和開發環境3
1.5 在數據分析領域的優勢4
1.6 總結4
第二章 大數據開發環境的搭建52.1 安裝大數據集成環境HDP6
2.2 安裝Spark環境(Windows)9
2.3 自行安裝大數據開發環境10
2.4 總結21
第三章 構建分析數據223.1 分析數據的說明23
3.2 導入數據到HDP SandBox中25
3.3 導入自安裝的環境中使用28
3.4 導入Windows的Spark中29
3.5 導入 Northwind 數據庫30
3.6 總結32
第四章 Python對Hadoop的操作334.1 Snakebite的說明34
4.2 HDFS命令說明36
4.3 Snakebite Client類的使用38
4.4 Snakebite CLI的使用40
4.5 總結42
第五章 Python對Hive的操作435.1 Hive說明44
5.2 使用PyHive47
5.3 使用Python編寫Hive UDF49
5.4 Impyla的使用51
5.5 Hive SQL調優方法52
5.6 總結53
第六章 Python對HBase的操作546.1 HBase說明55
6.2 HBase Shell命令57
6.3 HappyBase說明62
6.4 HappyBase的使用66
6.5 總結70
第七章 Python集成到Pig717.1 Pig說明72
7.2 Pig Latin的使用74
7.3 Python Pig的整合78
7.4 總結81
第八章 PySpark Shell應用838.1 操作步驟84
8.2 應用對象84
8.3 Spark核心模塊86
8.4 Spark Shell的使用87
8.5 PySpark Shell的使用92
8.6 總結95
第九章 PySpark對RDD操作969.1 Spark RDD說明97
9.2 RDD API說明101
9.3 在API函數中使用Lambda表達式108
9.4 從HDFS中讀取數據並以SequenceFile格式存儲110
9.5 讀取CSV文件處理並存儲112
9.6 讀取Json文件處理114
9.7 通過RDD計算圓周率115
9.8 查看RDD計算的狀態116
9.9 總結118
第十章 PySpark對DataFrame的操作11910.1 Spark DataFrame說明120
10.2 DataFrame API總述122
10.3 DataFrame數據結構API126
10.4 DataFrame數據處理API140
10.5 Postgresql和DataFrame145
10.6 CSV和DataFrame147
10.7 Json和DataFrame149
10.8 Numpy、Pandas和DataFrame151
10.9 RDD和DataFrame152
10.10 HDFS和DataFrame153
10.11 Hive和DataFrame154
10.12 HBase和DataFrame155
10.13 總結157
第十一章 PySpark對Streaming的操作15811.1 Spark Streaming說明159
11.2 Spark Streaming API160
11.3 網絡數據流165
11.4 文件數據流167
11.5 Kafka數據流171
11.6 Flume數據流173
11.7 QueueStream數據流174
11.8 使用StreamingListener監聽數據流175
11.9 總結177
第十二章 PySpark SQL17812.1 關於Spark SQL179
12.2 Spark SQL相關API180
12.3 Spark SQL使用步驟189
12.4 Postgresql和Spark SQL190
12.5 CSV和Spark SQL192
12.6 Json和Spark SQL193
12.7 HDFS和Spark SQL194
12.8 Hive和Spark SQL195
12.9 UDF和Spark SQL197
12.10 Streaming和Spark SQL199
12.11 Spark SQL優化200
12.12 總結201
第十三章 分析方法及構架的說明20213.1 統計的概念和數據可視化203
13.2 數據分析方法的探討206
13.3 開發構架說明209
13.4 總結整合說明210
第十四章 集成分析21414.1 SQL窗口函數的說明215
14.2 Hive SQL分析221
14.3 Spark SQL分析225
14.4 HBase SQL分析229
14.5 對接Numpy、Pandas的分析232
14.6 對接Blaze分析241
14.7 總結244
第十五章 數據挖掘24515.1 關於機器學習246
15.2 PySpark機器學習包248
15.3 特徵的抽取、轉換和選擇250
15.4 PySpark機器學習包的使用256
15.5 集成TensorFlow277
15.6 集成scikit-learn279
15.7 總結282
第十六章 數據可視化28316.1 標簽雲284
16.2 Zeppelin的使用289
16.3 Mathplotlib的使用293
16.4 Superset的使用301
16.5 總結308
附 錄.309
主題書展
更多
主題書展
更多書展今日66折
您曾經瀏覽過的商品
購物須知
為了保護您的權益,「三民網路書店」提供會員七日商品鑑賞期(收到商品為起始日)。
若要辦理退貨,請在商品鑑賞期內寄回,且商品必須是全新狀態與完整包裝(商品、附件、發票、隨貨贈品等)否則恕不接受退貨。