世界第一簡單機器學習
- 系列名:科學視界
- ISBN13:9789578799707
- 替代書名:マンガでわかる機械学習
- 出版社:世茂出版社
- 作者:荒木雅弘
- 譯者:衛宮紘
- 裝訂/頁數:平裝/224頁
- 規格:21cm*14.8cm*1.3cm (高/寬/厚)
- 重量:350克
- 版次:1
- 出版日:2019/04/02
商品簡介
適合研究者、工程師,
資訊、金融、教育、醫療業未來發展必需的參考指標,
在人工智慧研發、醫學診斷和機器人區域大展身手的第一本書!
涉及大量統計學理論,
讓人工智慧「自動學習」的演算法,
就是應用於電腦視覺、資料探勘、證券試場分析的機器學習。
搜尋引擎、語音及手寫辨識、戰略遊戲也能看到它的蹤跡。
透過預測、判斷、評估、排序,提高準確率!
打好機器學習基礎,工作從此事半功倍!
作者簡介
荒木 雅弘
1998年取得(工學)博士學位(京都大學)。
1999年曾任京都工藝纖維大學工藝學系助理教授。
2007年起任職京都工藝纖維大學工藝科學研究科副教授。
〈著作〉
《語音對話系統》(合著,歐姆社)
《用免費軟體建構語音辨識系統 從模式辨識、基本機器學習到對話系統》(森北出版)
《用免費軟體學習語意網與相關互動》(森北出版)
《用免費軟體開始機器學習入門》(森北出版)
《圖解語音辨識》(講談社)
譯者簡介
衛宮紘
清華大學原子科學院學士班畢。現為自由譯者。譯作有《上司完全使用手冊》(東販)、《超慢跑入門》(商周)、《男人懂了這些更成功》(潮客風)、《世界第一簡單電力系統》(世茂)……等。審訂者簡介
張智星
現職:台灣大學資訊系教授、台大醫院資訊室主任、台大金融科技研究中心主任
學歷:美國加州大學柏克萊分校 電機電腦系 博士
經歷:工研院資通所顧問
授課科目:資料結構與演算法、科學計算、金融科技導論、音樂訊號分析與檢索、人工智慧及深度機器學習之生醫藥產業應用
研究領域:語音辨識與評分、音樂分析與檢索、精準尋與行銷、醫療大數據分析
名人/編輯推薦
日本讀者好評推薦
真的很好懂。雖然需要有線性代數和偏微分的底子,但不需要實際計算,只要看懂基本概念就行了。書中有豐富的圖片和親切的說明,讓讀者容易吸收,非常推薦!──Masaru Kamata
是一本適合初學者的書。就連沒有機械學習知識的我也能理解整體概念。書末附上的索引在深入查詢時非常好用。漫畫部分鮮活的角色和情節也將內容的難度降低了。推薦給想了解機械學習的人。──JyunJyun
巧妙地將漫畫和工作書結合,讓人一讀就停不下來了。最大的優點是有附數學解說,也有舉出現實中的應用範例,讓讀者了解能應用的場合和方式。Q&A的部分能激發思考,加深理解。我會推薦這本書給學生看。──Танечка
序
目次
序
序章 請教我機器學習!
紗耶香的房間① 紗耶香與女高中生小愛
第1章 怎麼做迴歸?
1.1 預測數據的困難
1.2 從解釋變數求目標變數
1.3 求線性迴歸函數
1.4 正規化的效果
紗耶香的房間② 數學的複習①
第2章 怎麼進行識別?
2.1 整理資料
2.2 由資料預測類別
2.3 邏輯識別
2.4 決策樹的識別
紗耶香的房間③ 數學的複習②
第3章 評估結果
3.1 要用測試資料評估才有意義
3.2 訓練資料、檢驗資料、評估資料
3.3 交叉驗證法
3.4 準確率、精確率、召回率、F值
紗耶香的房間④ 數學的複習③
第4章 深度學習
4.1 神經網路
4.2 反向傳播法訓練
4.3 挑戰深度學習
4.3.1 深度神經網路的問題點
4.3.2 多層訓練上的技巧 ①事前訓練法
4.3.3 多層訓練上的技巧 ②激活函數
4.3.4 多層訓練上的技巧 ③規避過度學習
4.3.5 結構特化的神經網路
紗耶香的房間⑤ 數學的複習④
第5章 整體學習
5.1 裝袋法
5.2 隨機森林
5.3 提升法
紗耶香的房間⑥ 數學的複習⑤
第6章 非監督式學習
6.1 集群分析
6.1.1 階層式集群分析
6.1.2 分割式集群分析
6.2 矩陣分解
紗耶香的房間⑦ 數學的複習⑥
結尾
索引
書摘/試閱
紗耶香的房間① 紗耶香與女高中生小愛
紗:好久不見,小愛。上次碰面是在爺爺家吧?
愛:對啊,那個時候表姊妹都在嘛。
話說回來,紗耶姊,今天怎麼了嗎?
紗:今天……大學的學弟來請教機器學習,我就幫他稍微上了一下課,但不曉得他是不是真的聽懂……
我記得小愛在高中選擇理工組,所以想聽聽妳的看法。
愛:機器學習是指AI嗎?機器的智能,感覺好像很難。
紗:不過,機器學習的本質是根據資料建立數學模型,再由電腦來驅動這個模型唷。這個數學模型的基礎部分,大概高中生應該理解才對。
愛:我是有在天文部編寫過觀測用的程式,數學也是喜歡的科目,只有這些知識能夠理解嗎?
紗:小愛的話,沒問題的。
第一次上課講了迴歸問題,妳能聽聽看嗎?
愛:好吧。我就來聽聽這個困難的東西!
紗耶香的房間② 數學的複習①
紗:小愛到哪邊能夠聽懂?
愛:出現好多向量、矩陣耶。向量是用括號括住一排數字,二維向量是(a,b)、三維向量是(a,b,c),但 維向量我就不太清楚了……
紗: 在4以上後,無法想像該空間,的確會覺得比較難懂。不過,我們不用勉強想像空間,可簡單看作是許多數字排在一塊就行了。
愛:數字縱向排成的列向量有什麼意義嗎?
紗:沒有特別的意義,但這邊在排列複數特徵時,約定俗成會排成縱方向。機器學習會很常遇到矩陣和向量的乘法計算,矩陣從左側乘上列向量時,可用矩陣的積來表示矩陣的合成,相當便利。
愛:高中沒有教矩陣……。譯注
紗:嗯……矩陣可以想成是數字排成四角型。
紗:雖然行列的定義在有些國家相反,但日本數學的定義是橫方向為行、縱方向為列。我是以行列漢字「右半部」兩條線的方向來記憶唷。譯注
愛:原來如此!
紗:舉例來說,行方向有兩個數字、列方向有兩個數字,會稱為2行2列的矩陣。矩陣的加法是相加相同位置的數字,但乘法就比較麻煩了。
紗:相乘後矩陣第 行第 列的數值,是取出前面矩陣的第 行和後面矩陣的第 列,依行列數字出現的先後順序相乘,再把各乘積相加起來求得。
愛:這樣的話,如果前面矩陣的列數和後面矩陣的行數不同,就沒有辦法做乘法。
紗:是的。妳很清楚嘛。事先理解矩陣乘法的定義是 行 列的矩陣乘上 行 列的矩陣,計算結果為 行 列矩陣的話,就能夠輕鬆讀懂式子。
紗:接著,再了解轉置和反矩陣就沒問題了。矩陣 的轉置矩陣記作 ,只是將矩陣的行列對調而已。
愛:可是,在式(1.1)是轉置向量 。
紗:向量可想成是矩陣的特殊情況,比如 維列向量可看作是 行 列的矩陣。
愛:啊,對唷。因為 是 行 列, 會是 行 列,而 是 列 行,所以能夠計算 的乘法,結果為 行 列的矩陣……。
哎! 行 列的矩陣,不就是普通的數字?
紗:是的。普通的數字稱為純量, 是純量、 也是純量,兩者相加起來的 當然也會是純量。
愛:哼嗯哼嗯。
紗:然後,比較複雜的是式(1.8)出現的反矩陣(日文:逆行列)。矩陣 的反矩陣記作 。對了,小愛知道5的倒數(日文:逆數)嗎?
愛:倒數,是乘上該數結果為1的數,所以5的倒數是 嘛。
紗:是的。基本上,反矩陣也是相同的思維。在矩陣世界中,相當於1的矩陣稱為單位矩陣。單位矩陣是行數和列數相同的正方矩陣,一般記作 。矩陣裡面右斜對角線的元素為1,其餘的元素皆為0。
愛:為什麼單位矩陣相當於1呢?
紗:妳隨便找一個正方矩陣乘上單位矩陣看看。
結果是不是沒有改變呢?
愛:對唷。數字1也是任何數字乘上它不改變嘛。
紗: 行 列矩陣 的反矩陣 ,可用下面的計算公式求得。而 行 列的反矩陣,通常會交由電腦來計算。
紗:這邊只要知道反矩陣 從左邊乘上原矩陣 ,會變成單位矩陣 就行了。
紗:還有其他不懂的地方嗎?
愛:這個記號(Σ)。
紗:這是唸作Sigma的希臘文字,表示總和的記號。
可用Σ簡記為 。
愛:還有用向量對函數微分的地方不懂。
紗:嗚。這個……
下次再來說明,妳先把向量當作是普通的變數來微分。
愛:這樣的話就沒有了。我記得權重是用式(1.8)來求嘛。
紗耶香的房間③ 數學的複習②
愛:嗯……51頁的 是什麼?
紗: ?
啊啊,S型函數中出現的 啊。這是自然對數的底數,稱為尤拉數(Euler’s Number)。 是無限循環的無理數。
愛:對數是用來求以某數為底數的幾次方嘛。底數為2的話,就像決策樹的說明,表示該數轉為二進位數時的位數,但為什麼需要以奇怪的 為底數的「自然」對數呢?
紗:這個 具有非常方便的性質,比如微分 後還是 、 的微分會是 等等。實際上,當我們反過來求具有這樣性質的數時,就會使用 唷。
愛:然後,53頁的向量微分。
紗:嗚嗚,不能再矇混過去了啊。那麼,我就認真講吧。
紗:這邊出現的誤差函數 ,如果改變模型的權重 值,最後的數值也會出現變化。誤差函數有複數個權重,所以是多變數函數。然後,將權重的集合表作向量後,誤差函數就是以向量為參數的函數。
愛:嗯。到這邊我還明白。
紗:在這邊會這樣定義函數的向量微分。
是偏微分的記號,意為除了指定的變數之外,其餘皆視為常數來微分。 多讀為round d(在台灣較常唸作partial)。舉例來說, 是指在 的式子中,僅視 為變數來微分。
愛:微分的對象變成向量。
紗:是的。這也稱為梯度向量。
愛:原來如此。單一變數函數的微分表示切線斜率,而多變數函數的微分表示斜面的梯度。
紗:是的。如同54頁的圖,這邊的權重表作斜面上的一點,稍微往斜面梯度的反方向(向斜面下方)移動的話,就會慢慢接近誤差函數的底部。
主題書展
更多主題書展
更多書展本週66折
您曾經瀏覽過的商品
購物須知
為了保護您的權益,「三民網路書店」提供會員七日商品鑑賞期(收到商品為起始日)。
若要辦理退貨,請在商品鑑賞期內寄回,且商品必須是全新狀態與完整包裝(商品、附件、發票、隨貨贈品等)否則恕不接受退貨。