-
>
決戰行測5000題(言語理解與表達)
-
>
軟件性能測試.分析與調優實踐之路
-
>
第一行代碼Android
-
>
深度學習
-
>
Unreal Engine 4藍圖完全學習教程
-
>
深入理解計算機系統-原書第3版
-
>
Word/Excel PPT 2013辦公應用從入門到精通-(附贈1DVD.含語音視頻教學+辦公模板+PDF電子書)
圖說深度學習:用可視化方法理解復雜概念 版權信息
- ISBN:9787515369006
- 條形碼:9787515369006 ; 978-7-5153-6900-6
- 裝幀:平裝-膠訂
- 冊數:暫無
- 重量:暫無
- 所屬分類:>
圖說深度學習:用可視化方法理解復雜概念 本書特色
本書幫助讀者入門深度學習深度學習入門,與其他深度學習入門圖書的區別在于,本書中包含大量圖解,并且采用口語化文字寫作。由于作者是計算機圖形學和深度學習方面的專家,所以在用圖形圖像來解釋專業概念上具有一定優勢和經驗,因此本書中的大量圖解也是本書一大特色。有了圖解就意味著一些比較專業知識不一定需要用大量數學和公式去解釋,所以這本書面向讀者人群可以擴大到非計算機專業人士,哪怕是對深度學習、人工智能完全沒有學習基礎的人,也可以讀懂。
圖說深度學習:用可視化方法理解復雜概念 內容簡介
本書適合任何想要深入了解深度學習這個迷人領域的人,您不需要具備高級數學和編程知識就可以掌握其根本原理。如果您想知道這些工具是如何工作的,并學會自己使用它們,答案盡在書中。而且,如果您已經準備好編寫自己的程序,那么隨附的Github存儲庫中還有大量補充的Python筆記本可以幫助您。
本書講解語言通俗易懂,包含大量的的彩色插圖和具有啟發性的類比,以及豐富的現實世界的例子,深入地地解釋了深度學習的關鍵概念,包括:
•文本生成器如何創建新穎的故事和文章。
•深度學習系統如何在人類游戲中學習游戲并獲勝。
•圖像分類系統如何識別照片中的物體或人。
•如何以對日常生活有用的方式思考概率。
•如何使用構成現代人工智能核心的機器學習技術。本書適合任何想要深入了解深度學習這個迷人領域的人,您不需要具備高級數學和編程知識就可以掌握其根本原理。如果您想知道這些工具是如何工作的,并學會自己使用它們,答案盡在書中。而且,如果您已經準備好編寫自己的程序,那么隨附的Github存儲庫中還有大量補充的Python筆記本可以幫助您。
本書講解語言通俗易懂,包含大量的的彩色插圖和具有啟發性的類比,以及豐富的現實世界的例子,深入地地解釋了深度學習的關鍵概念,包括:
•文本生成器如何創建新穎的故事和文章。
•深度學習系統如何在人類游戲中學習游戲并獲勝。
•圖像分類系統如何識別照片中的物體或人。
•如何以對日常生活有用的方式思考概率。
•如何使用構成現代人工智能核心的機器學習技術。
各種各樣的智力冒險家都可以使用本書中涵蓋的強大思想來構建智能系統,幫助我們更好地理解世界和生活在其中的每個人。這就是人工智能的未來,這本書可以讓你充分想象它的未來。
圖說深度學習:用可視化方法理解復雜概念 目錄
致謝
前言
這本書是為誰準備的···············································································
這本書沒有復雜的數學和代碼
如果你想要的話,這里有代碼
圖片也可以找到!
勘誤
關于本書
第1部分:基礎理論
第2部分:初級機器學習
第3部分:深度學習的基礎
第4部分:進階知識
*后的話····························································································· **部分 基礎理論 1
第1 章 機器學習技術概述 2
1.1 專家系統
1.2 監督學習
1.3 無監督學習
1.4 強化學習
1.5 深度學習
1.6 本章總結 第2 章 統計學基礎 11
2.1 描述隨機性
2.2 隨機變量與概率分布
2.3 常見的分布
詳細目錄 VII
2.3.1 連續分布
2.3.2 離散分布
2.4 隨機值的集合
2.4.1 期望值
2.4.2 依賴
2.4.3 獨立同分布變量
2.5 采樣與替換
2.5.1 替換采樣法
2.5.2 無替換采樣法
2.6 自采樣法
2.7 協方差和相關性
2.7.1 協方差
2.7.2 相關性
2.8 統計數據的局限性
2.9 高維空間
2.10 本章總結 第3 章 性能度量 37
3.1 不同類型的概率
3.1.1 投擲飛鏢
3.1.2 簡單概率
3.1.3 條件概率
3.1.4 聯合概率
3.1.5 邊緣概率
3.2 評價正確性
3.2.1 樣本分類
3.2.2 混淆矩陣
3.2.3 錯誤的特征
3.2.4 評價正確與否
3.2.5 準確率
3.2.6 精度
3.2.7 召回率
3.2.8 精度與召回率的權衡
3.2.9 誤導性結果
3.2.10 F1分數
3.2.11 關于這些指標
3.2.12 其他評價方式
3.3 正確構造混淆矩陣
3.4 本章總結 第4 章 貝葉斯方法 66
4.1 頻率法與貝葉斯概率
4.1.1 頻率法
4.1.2 貝葉斯方法
4.1.3 頻率派與貝葉斯派
4.2 頻率法拋擲硬幣
4.3 貝葉斯方法拋擲硬幣
4.3.1 啟發性的例子
4.3.2 繪制拋擲硬幣的概率
4.3.3 用概率表示拋擲硬幣
4.3.4 貝葉斯公式
4.3.5 關于貝葉斯公式的討論
4.4 貝葉斯公式與混淆矩陣
4.5 再論貝葉斯公式
4.5.1 后驗-先驗循環
4.5.2 貝葉斯循環實戰
4.6 多重假設
4.7 本章總結 第5 章 曲線和曲面
5.1 函數的性質
5.2 導數
5.2.1 *大值和*小值
5.2.2 切線
5.2.3 用導數求*小值和*大值
5.3 梯度
5.3.1 水、重力和梯度
5.3.2 用梯度求*大值和*小值
5.3.3 鞍點
5.4 本章總結 第6 章 信息論
6.1 信息帶給我們的驚訝感
6.1.1 為什么會驚訝
6.1.2 信息解密
6.2 衡量信息量
6.3 自適應碼
6.3.1 摩斯電碼
6.3.2 調整摩斯電碼
6.4 熵
6.5 交叉熵
6.5.1 兩種自適應碼
6.5.2 使用編碼
6.5.3 實踐中的交叉熵 ·
6.6 KL散度
6.7 本章總結 第二部分 初級機器學習
第7 章 分類
7.1 二維空間的二元分類問題
7.2 二維空間的多分類問題
7.3 多元分類
7.3.1 一對多
7.3.2 一對一
7.4 聚類
7.5 維度詛咒
7.5.1 維度和密度
7.5.2 高維奇異性
7.6 本章總結 第8 章 訓練和測試
8.1 訓練
8.2 測試
8.2.1 測試集
8.2.2 驗證集
8.3 交叉驗證
8.4 k-Fold交叉驗證法
8.5 本章總結 第9 章 過擬合與欠擬合
9.1 找到一個好的擬合
9.1.1 過擬合
9.1.2 欠擬合
9.2 檢測和解決過擬合
9.2.1 提前停止
9.2.2 正則化
9.3 偏差和方差
9.3.1 匹配基礎數據
9.3.2 高偏差與低方差
9.3.3 低偏差與高方差
9.3.4 比較曲線
9.4 用貝葉斯方法擬合直線
9.5 本章總結 第10 章 數據預處理
10.1 基本數據清洗
10.2 數據一致性
10.3 數據類型
10.4 獨熱編碼
10.5 歸一化與標準化
10.5.1 歸一化
10.5.2 標準化
10.5.3 記錄轉換過程
10.6 其他轉換方式
10.6.1 切片處理
10.6.2 樣本切片
10.6.3 特征切片
10.6.4 元素切片
10.7 逆變換
10.8 交叉驗證中的信息泄露
10.9 收縮數據集
10.9.1 特征選擇
10.9.2 降維
10.10 主成分分析
10.10.1 簡單圖像的PCA處理
10.10.2 真實圖像的主成分分析
10.11 本章總結
第11 章 分類器
11.1 常見分類器
11.2 k-*近鄰算法
11.3 決策樹
11.3.1 決策樹概覽
11.3.2 決策樹構建
11.3.3 過擬合樹
11.3.4 拆分節點
11.4 支持向量機
11.4.1 基礎算法
11.4.2 支持向量機核函數
11.5 樸素貝葉斯
11.6 分類器的對比
11.7 本章總結 第12 章 集成學習
12.1 投票
12.2 決策樹的集成
12.2.1 裝袋算法
12.2.2 隨機森林
12.2.3 極端隨機樹集成
12.3 助推法
12.4 本章總結 第三部分 深度學習的基礎
第13 章 神經網絡
13.1 生物神經元
13.2 人工神經元
13.2.1 感知器
13.2.2 現代人工神經元
13.3 繪制神經元
13.4 前饋網絡
13.5 神經網絡圖
13.6 初始化權重
13.7 深度神經網絡
13.8 全連接層
13.9 張量
13.10 防止坍縮
13.11 激活函數
13.11.1 直線函數
13.11.2 階躍函數
13.11.3 分段線性函數
13.11.4 平滑函數
13.11.5 激活函數圖像總結
13.11.6 比較激活函數
13.12 Softmax函數
13.13 本章總結 第14 章 反向傳播算法
14.1 訓練過程概述
14.1.1 降低誤差
14.1.2 一種緩慢的學習算法
14.1.3 梯度下降
14.2 快速開始
14.3 微型神經網絡中的反向傳播
14.3.1 尋找輸出神經元的增量
14.3.2 使用δ來調整權重
14.3.3 其他神經元的δ值
14.4 大型神經網絡中的反向傳播算法
14.5 學習率
14.5.1 構建二分類器
14.5.2 選擇學習率
14.5.3 更小的學習率
14.6 本章總結 第15 章 優化器
15.1 用二維曲線表示誤差
15.2 調整學習率
15.2.1 恒定大小的更新
15.2.2 隨著時間的推移改變學習率
15.2.3 衰減調整策略
15.3 更新策略
15.3.1 批量梯度下降法
15.3.2 隨機梯度下降法
15.3.3 小批次梯度下降法
15.4 梯度下降的變體
15.4.1 動量
15.4.2 內斯特羅夫動量
15.4.3 AdaGrad算法
15.4.4 Adadelta和RMSProp算法
15.4.5 Adam算法
15.5 優化器的選擇
15.6 正則化
15.6.1 Dropout
15.6.2 BatchNorm
15.7 本章總結 第四部分 進階知識
第16 章 卷積神經網絡
16.1 初識卷積
16.1.1 顏色檢測
16.1.2 權重共享
16.1.3 大一點的卷積核
16.1.4 卷積核和特征
16.1.5 填充
16.2 多維卷積
16.3 多重卷積核
16.4 卷積層
16.4.1 一維卷積
16.4.2 1×1卷積
16.5 更改輸出大小
16.5.1 池化
16.5.2 跨步前進
16.5.3 轉置卷積
16.6 卷積核的層次結構
16.6.1 簡化假設
16.6.2 尋找面具
16.6.3 尋找眼睛、鼻子和嘴巴
16.6.4 應用卷積核
16.7 本章總結 第17 章 卷積網絡實踐
17.1 手寫數字分類
17.2 VGG16
17.3 圖解卷積核(1)
17.4 圖解卷積核(2)
17.5 對抗樣本
17.6 本章總結 第18 章 自編碼器
18.1 編碼簡介
18.2 混合表示
18.3 *簡單的自編碼器
18.4 更好的自編碼器
18.5 探索自編碼器
18.5.1 探索潛在變量
18.5.2 參數空間
18.5.3 混合潛在變量
18.5.4 基于新輸入的預測
18.6 卷積自編碼器
18.6.1 混合潛在變量
18.6.2 基于新輸入的預測
18.7 去噪
18.8 可變自編碼器
18.8.1 潛在變量的分布
18.8.2 可變自編碼器結構
18.9 探索VAE
18.9.1 使用MNIST樣本
18.9.2 使用兩個潛在變量
18.9.3 產生新的輸入
18.10 本章總結 第19 章 循環神經網絡
19.1 處理語言
19.1.1 常見的NLP任務
19.1.2 文本數值化
19.1.3 微調和下游網絡
19.2 全連接預測
19.2.1 測試網絡
19.2.2 失敗的原因
19.3 循環神經網絡
19.3.1 狀態
XVI
19.3.2 卷起圖表
19.3.3 實踐循環單元
19.3.4 訓練循環神經網絡
19.3.5 長短期記憶與門控循環網絡
19.4 使用循環神經網絡
19.4.1 處理太陽黑子數據
19.4.2 生成文本
19.4.3 其他架構
19.5 Seq2Seq
19.6 本章總結 第20 章 注意力機制和Transformer模型
20.1 嵌入
20.1.1 詞嵌入技術
20.1.2 ELMo模型
20.2 注意力機制
20.2.1 形象比喻
20.2.2 自注意力機制
20.2.3 Q/KV注意力機制
20.2.4 多頭注意力機制
20.2.5 層圖標
20.3 Transformer模型
20.3.1 跳躍連接
20.3.2 Norm-Add
20.3.3 位置編碼
20.3.4 構建Transformer模塊
20.3.5 運行Transformer模塊
20.4 BERT和GPT-2
20.4.1 BERT
20.4.2 GPT-2
20.4.3 生成器討論
20.4.4 數據中毒
20.5 本章總結 第21 章 強化學習
21.1 基本思想
21.2 學習新游戲
21.3 強化學習的結構
21.3.1 步驟1:代理選擇操作
21.3.2 步驟2:環境做出反應
21.3.3 步驟3:代理自我更新
21.3.4 回到全局
21.3.5 理解回報
21.4 Flippers
21.5 L-Learning
21.5.1 基礎知識
21.5.2 L-Learning算法
21.5.3 性能測試
21.5.4 不可預測性
21.6 Q-Learning
21.6.1 Q值和更新
21.6.2 Q-Learning策略
21.6.3 策略總覽
21.6.4 房間里的大象
21.6.5 Q-Learning的作用
21.7 SARSA
21.7.1 SARSA算法
21.7.2 SARSA的作用
21.7.3 Q-Learning與SARSA的比較
21.8 縱觀全局
21.9 本章總結 第22 章 生成對抗網絡
22.1 偽造籌碼
22.1.1 從經驗中學習
22.1.2 訓練生成器網絡
22.1.3 學習過程
22.1.4 理解對抗性
22.2 實現生成對抗網絡
22.2.1 鑒別器
22.2.2 生成器
22.2.3 訓練生成對抗網絡
22.3 生成對抗網絡的作用
22.3.1 構建鑒別器和生成器
22.3.2 訓練網絡
22.3.3 測試網絡
22.4 深度卷積生成對抗網絡
22.5 挑戰
22.5.1 大樣本訓練
22.5.2 模態崩潰
22.5.3 使用生成的數據訓練
22.6 本章總結 第23 章 創意應用
23.1 深夢系統
23.1.1 刺激卷積核
23.1.2 測試我們的算法
23.2 神經風格遷移
23.2.1 表現風格
23.2.2 表現內容
23.2.3 風格和內容
23.2.4 測試算法
23.3 生成本書更多內容
23.4 本章總結
23.5 *后的思考
參考文獻
圖片來源
索引
圖說深度學習:用可視化方法理解復雜概念 作者簡介
[美]安德魯·格拉斯納:
擁有北卡羅來納州教堂山分校計算機科學博士學位,他是一位專門從事計算機圖形學和深度學習的研究的科學家。他目前是Weta Digital(維塔數碼)的高級研究科學家,致力于將深度學習與電影和電視世界級視覺效果的制作相結合。他曾在IBM沃森實驗室、施樂PARC和微軟研究所等實驗室擔任研究員。同時他也是最早的圖形研究雜志ACM-TOG9(計算機圖形學國際頂級期刊)的主編,和最早的計算機圖形學會議SIGGRAPH(Special Interest Group for Computer GRAPHICS,由美國計算機協會計算機圖形專業組組織的計算機圖形學頂級年度會議)的技術論文主席。他撰寫或編輯了十幾本關于計算機圖形學的技術書籍,包括著名的Principles of Digital Image Synthesis、Graphics Gems系列等。
趙鳴,2006年獲華中師范大學計算機輔助教學碩士學位,2015年獲哈爾濱工業大學計算機應用方向博士學位,現任長江大學教授。目前主持在研省部級項目四項,橫向項目兩項。他的研究興趣包括計算智能、圖像和信號處理、模式識別等。他是荊州市智慧警務專家成員,也是IEEE高級成員
曾小健,出版AI圖書多部,在量化金融和AI領域有多年經驗,計算機博士在讀,CSDN博客專家,多個大模型開源項目源碼貢獻人,曾在華為云、中關村在線等多所大型互聯網科技企業擔任重要職務,GitHub:ArtificialZeng; CSDN:AI生成曾小健。[美]安德魯·格拉斯納:
擁有北卡羅來納州教堂山分校計算機科學博士學位,他是一位專門從事計算機圖形學和深度學習的研究的科學家。他目前是Weta Digital(維塔數碼)的高級研究科學家,致力于將深度學習與電影和電視世界級視覺效果的制作相結合。他曾在IBM沃森實驗室、施樂PARC和微軟研究所等實驗室擔任研究員。同時他也是最早的圖形研究雜志ACM-TOG9(計算機圖形學國際頂級期刊)的主編,和最早的計算機圖形學會議SIGGRAPH(Special Interest Group for Computer GRAPHICS,由美國計算機協會計算機圖形專業組組織的計算機圖形學頂級年度會議)的技術論文主席。他撰寫或編輯了十幾本關于計算機圖形學的技術書籍,包括著名的Principles of Digital Image Synthesis、Graphics Gems系列等。
譯者簡介:
趙鳴,2006年獲華中師范大學計算機輔助教學碩士學位,2015年獲哈爾濱工業大學計算機應用方向博士學位,現任長江大學教授。目前主持在研省部級項目四項,橫向項目兩項。他的研究興趣包括計算智能、圖像和信號處理、模式識別等。他是荊州市智慧警務專家成員,也是IEEE高級成員
曾小健,出版AI圖書多部,在量化金融和AI領域有多年經驗,計算機博士在讀,CSDN博客專家,多個大模型開源項目源碼貢獻人,曾在華為云、中關村在線等多所大型互聯網科技企業擔任重要職務,GitHub:ArtificialZeng; CSDN:AI生成曾小健。
李現偉,日本早稻田大學博士畢業,碩士生導師,主要從事大數據、機器學習、物聯網等方向的教學與工作。發表SCI論文20余篇,主持和參與安徽省自然科學基金、安徽省重點研究與開發計劃、安徽省教育廳優秀青年基金項目等多項。獲得中國發明協會創業獎成果獎二等獎,獲得綠色礦山科學技術獎二等獎一項。
任玉柱,畢業于國防科學技術大學網絡工程專業,主要研究方向為信息安全,機器學習,人工智能,發表相關領域研究文章3篇。
- >
新文學天穹兩巨星--魯迅與胡適/紅燭學術叢書(紅燭學術叢書)
- >
二體千字文
- >
中國歷史的瞬間
- >
大紅狗在馬戲團-大紅狗克里弗-助人
- >
隨園食單
- >
李白與唐代文化
- >
莉莉和章魚
- >
名家帶你讀魯迅:朝花夕拾