深度學習自然語言處理實戰(簡體書)
商品資訊
系列名:數字化人才職場賦能系列叢書
ISBN13:9787111660149
出版社:機械工業出版社
作者:張楠
出版日:2020/08/17
裝訂/頁數:平裝/188頁
規格:24cm*17cm (高/寬)
版次:一版
商品簡介
名人/編輯推薦
目次
相關商品
商品簡介
近年來,基於深度學習方法的自然語言處理(NLP)已逐漸成為主流。本書共8章,主要介紹自然語言處理任務中的深度學習技術,包含深度學習理論基礎、深度學習的軟件框架、語言模型與詞向量、序列模型與梯度消失/爆炸、卷積神經網絡在NLP領域的應用、Seq2Seq模型與Attention機制、大規模預訓練模型、預訓練語言模型BERT,還給出了自然語言處理技術的高級應用和開發實例,並收錄了基於PyTorch深度學習框架的部分實踐項目。
本書既可作為人工智能、計算機科學、電子信息工程、自動化等專業的本科生及研究生教材,也可作為自然語言處理相關領域的研究人員和技術人員的參考資料。
本書既可作為人工智能、計算機科學、電子信息工程、自動化等專業的本科生及研究生教材,也可作為自然語言處理相關領域的研究人員和技術人員的參考資料。
名人/編輯推薦
自然語言和深度學習、神經網絡、seq2seq、注意力機制、預訓練模型全覆蓋
目次
前言
第1章深度學習理論基礎
1.1深度學習概況
1.1.1深度學習的歷史
1.1.2“無所不能”的深度學習
1.2深度學習神經網絡
1.2.1神經網絡
1.2.2隱藏層
1.2.3梯度下降
1.2.4激活函數
1.2.5權重初始化
1.2.6正則化
1.2.7歸一化
第2章深度學習的軟件框架
2.1環境配置
2.1.1Anaconda
2.1.2英偉達GPU驅動+CUDA+cuDNN
2.1.3PyTorch安裝
2.1.4Python IDE選擇
2.2PyTorch 入門
2.2.1Tensor基本概念
2.2.2Tensor的運算
2.3PyTorch自動求梯度
2.3.1基本概念
2.3.2Tensor樣例
2.3.3梯度計算
2.4PyTorch nn模塊
第3章語言模型與詞向量
3.1語言模型
3.1.1無處不在的語言模型
3.1.2神經網絡語言模型
3.2詞向量
3.2.1one-hot
3.2.2word2vec
3.2.3GloVe
3.3代碼實戰
3.3.1任務1:應用PyTorch搭建Skip-Gram
3.3.2任務2:基於GloVe的大規模中文語料的詞向量訓練
第4章序列模型與梯度消失/爆炸
4.1循環神經網絡
4.1.1模型結構及計算過程
4.1.2應用PyTorch搭建並訓練RNN模型
4.2梯度消失與爆炸
4.2.1產生原因
4.2.2解決方法
4.3改進方法
4.3.1LSTM
4.3.2GRU
4.4代碼實戰:搭建LSTM/GRU的文本分類器
第5章卷積神經網絡在NLP領域的應用
5.1卷積神經網絡的概念
5.1.1輸入層
5.1.2卷積層
5.1.3池化層
5.1.4全連接層
5.2空洞卷積神經網絡
5.2.1空洞卷積的基本定義
5.2.2空洞卷積在NLP中的應用
5.2.3空洞卷積相關代碼
5.2.4多層卷積
5.3代碼實戰:CNN情感分類實戰
5.3.1數據處理
5.3.2程序主幹部分
5.3.3模型部分
5.3.4模型訓練與評估
第6章Seq2Seq模型與Attention機制
6.1Encoder-Decoder結構
6.1.1Encoder
6.1.2Decoder
6.1.3Encoder-Decoder存在的問題
6.2Attention機制
6.3Seq2Seq訓練與預測
6.3.1模型訓練
6.3.2模型預測
6.3.3BLEU模型評估法
6.4代碼實戰:應用PyTorch搭建機器翻譯模型
第7章大規模預訓練模型
7.1ELMo
7.1.1模型結構
7.1.2模型效果
7.1.3ELMo的優點
7.1.4利用ELMo+CNN進行分類的示例
7.2Transformer
7.2.1Encoder端及Decoder端總覽
7.2.2Encoder端各個子模塊
7.2.3Decoder端各個子模塊
7.2.4其他模塊
7.2.5完整模型
第8章預訓練語言模型BERT
8.1BERT的基本概念
8.2BERT的工作原理
8.2.1BERT的預訓練
8.2.2BERT模型結構
8.2.3BERT的微調
8.3BERT的可解釋性
8.4其他預訓練模型
8.4.1XLNet
8.4.2RoBERTa
8.4.3ALBERT
8.5代碼實戰:預訓練模型
參考文獻
第1章深度學習理論基礎
1.1深度學習概況
1.1.1深度學習的歷史
1.1.2“無所不能”的深度學習
1.2深度學習神經網絡
1.2.1神經網絡
1.2.2隱藏層
1.2.3梯度下降
1.2.4激活函數
1.2.5權重初始化
1.2.6正則化
1.2.7歸一化
第2章深度學習的軟件框架
2.1環境配置
2.1.1Anaconda
2.1.2英偉達GPU驅動+CUDA+cuDNN
2.1.3PyTorch安裝
2.1.4Python IDE選擇
2.2PyTorch 入門
2.2.1Tensor基本概念
2.2.2Tensor的運算
2.3PyTorch自動求梯度
2.3.1基本概念
2.3.2Tensor樣例
2.3.3梯度計算
2.4PyTorch nn模塊
第3章語言模型與詞向量
3.1語言模型
3.1.1無處不在的語言模型
3.1.2神經網絡語言模型
3.2詞向量
3.2.1one-hot
3.2.2word2vec
3.2.3GloVe
3.3代碼實戰
3.3.1任務1:應用PyTorch搭建Skip-Gram
3.3.2任務2:基於GloVe的大規模中文語料的詞向量訓練
第4章序列模型與梯度消失/爆炸
4.1循環神經網絡
4.1.1模型結構及計算過程
4.1.2應用PyTorch搭建並訓練RNN模型
4.2梯度消失與爆炸
4.2.1產生原因
4.2.2解決方法
4.3改進方法
4.3.1LSTM
4.3.2GRU
4.4代碼實戰:搭建LSTM/GRU的文本分類器
第5章卷積神經網絡在NLP領域的應用
5.1卷積神經網絡的概念
5.1.1輸入層
5.1.2卷積層
5.1.3池化層
5.1.4全連接層
5.2空洞卷積神經網絡
5.2.1空洞卷積的基本定義
5.2.2空洞卷積在NLP中的應用
5.2.3空洞卷積相關代碼
5.2.4多層卷積
5.3代碼實戰:CNN情感分類實戰
5.3.1數據處理
5.3.2程序主幹部分
5.3.3模型部分
5.3.4模型訓練與評估
第6章Seq2Seq模型與Attention機制
6.1Encoder-Decoder結構
6.1.1Encoder
6.1.2Decoder
6.1.3Encoder-Decoder存在的問題
6.2Attention機制
6.3Seq2Seq訓練與預測
6.3.1模型訓練
6.3.2模型預測
6.3.3BLEU模型評估法
6.4代碼實戰:應用PyTorch搭建機器翻譯模型
第7章大規模預訓練模型
7.1ELMo
7.1.1模型結構
7.1.2模型效果
7.1.3ELMo的優點
7.1.4利用ELMo+CNN進行分類的示例
7.2Transformer
7.2.1Encoder端及Decoder端總覽
7.2.2Encoder端各個子模塊
7.2.3Decoder端各個子模塊
7.2.4其他模塊
7.2.5完整模型
第8章預訓練語言模型BERT
8.1BERT的基本概念
8.2BERT的工作原理
8.2.1BERT的預訓練
8.2.2BERT模型結構
8.2.3BERT的微調
8.3BERT的可解釋性
8.4其他預訓練模型
8.4.1XLNet
8.4.2RoBERTa
8.4.3ALBERT
8.5代碼實戰:預訓練模型
參考文獻
主題書展
更多
主題書展
更多書展今日66折
您曾經瀏覽過的商品
購物須知
大陸出版品因裝訂品質及貨運條件與台灣出版品落差甚大,除封面破損、內頁脫落等較嚴重的狀態,其餘商品將正常出貨。
特別提醒:部分書籍附贈之內容(如音頻mp3或影片dvd等)已無實體光碟提供,需以QR CODE 連結至當地網站註冊“並通過驗證程序”,方可下載使用。
無現貨庫存之簡體書,將向海外調貨:
海外有庫存之書籍,等候約45個工作天;
海外無庫存之書籍,平均作業時間約60個工作天,然不保證確定可調到貨,尚請見諒。
為了保護您的權益,「三民網路書店」提供會員七日商品鑑賞期(收到商品為起始日)。
若要辦理退貨,請在商品鑑賞期內寄回,且商品必須是全新狀態與完整包裝(商品、附件、發票、隨貨贈品等)否則恕不接受退貨。