睿地可靠度論壇(TW-REDI Forum)

標題: QKC20200313:讀書會_人工智慧 (AI) 在品質技術的應用系列:(2) 機率簡論 [打印本頁]

作者: hlperng    時間: 2020-3-14 13:22:09     標題: QKC20200313:讀書會_人工智慧 (AI) 在品質技術的應用系列:(2) 機率簡論

本帖最後由 hlperng 於 2020-3-14 13:25 編輯

品質學會品質知識社群 (QKC) 讀書會
專題:人工智慧 (AI) 在品質技術的應用系列 (2) 機率簡論
時間:2020 年 03 月 13 日 (星期三) 14:00 - 18:00
地點:台北市羅斯福路二段 75 號 9 樓 (時代大樓品質學會九樓會議室)
引導:官生平 彭鴻霖 會友









作者: hlperng    時間: 2020-5-24 11:08:24     標題: 人工智慧 (AI) 與 機率概論的一些名詞與定義

本帖最後由 hlperng 於 2020-8-15 11:37 編輯

人工智慧 vs. 人類智慧

線性 vs. 非線性,為什麼解答用線性,檢討用非線性?循序漸進!

試誤法 (try and error)

可能性
概似函數 (likelihood function)、概似函數對數值 = 對數概似函數 = 概似函數
梯度 (gradient)、斜率 (slope)
梯度下降、提前停止

風險是損失的期望值

損失函數:二次損失函數、交叉熵損失函數

風險是損失的期望值

損失函數:二次損失函數、交互熵損失函數
自我 (auto) vs. 交互 (cross)

物體熵 vs. 資訊熵 (information entropy)
夏農熵 (1948) (Shannon entropy):資訊亂度,事物混沌紊亂程度的度量方式。

適化:風險最小、損失最小


鴻溝 (gap)

離差 (deviation) = 偏差 (bias) + 誤差 (error)

有指導學習 (supervised learning): 自動學習
無指導學習 (unsupervised learning): 自主學習
強化學習 (enforcement learning)


分類 (classification)、回歸 (regression)
分群 (clustering):MW 檢定、
分類:t 檢定﹑
分級:卡方檢定


特徵學習 (feature learning)、表達學習 (representation learning);參數 (parameter)
機器學習 = 統計學習
深度學習 = 機率學習?

卷積神經網路 (covolution neural network, CNN)
循環神經網路 (recurrent neural network, RNN)
遞歸神經網路 (recursive neural network, RecNN)










歡迎光臨 睿地可靠度論壇(TW-REDI Forum) (http://m1.kdi.tw/) Powered by Discuz! X2