假設檢驗中的“假設”是對學習器泛化錯誤率分布的某種判斷或猜想
2018-08-16 閱讀全文>>統計假設檢驗(hypothesis test)為我們進行學習器性能比較提供了重要依據,基于假設檢驗結果我們可推斷出,若在測試集上觀察到學習器A比B好,則A的泛化性能是否在統計意義上優于B,以及這個結論的把握有多大
2018-08-16 閱讀全文>>將ROC曲線上的每個點轉化為代價平面上的一條線段,然后取所有線段的下界
2018-08-16 閱讀全文>>回顧前面介紹的一些性能度量可看出,它們大都隱式地假設了均等代價
2018-08-16 閱讀全文>>在現實任務中常會遇到這樣的情況:不同類型的錯誤所造成的后果不同.例如在醫療診斷中,錯誤地把患者診斷為健康人與錯誤地把健康人診斷為患者,看起來都是犯了“一次錯誤”
2018-08-16 閱讀全文>>現實任務中通常是利用有限個測試樣例來繪制ROC圖,此時僅能獲得有限個(真正例率,假正例率)坐標對,無法產生圖2 4(a)中的光滑ROC曲線,只能基于有限個測試樣例篆繪制出如圖2 4(b)所示的近似ROC曲線
2018-08-16 閱讀全文>>錯誤率和精度雖常用,但并不能滿足所有任務需求.以西瓜問題為例,假定瓜農拉來一車西瓜,我們用訓練好的模型對這些西瓜進行判別,顯然,錯誤率衡量了有多少比例的瓜被判別錯誤.
2018-08-16 閱讀全文>>調參得好不好往往對最終模型性能有關鍵性影響.給定包含m個樣本的數據集D,在模型評估與選擇過程中由于需要留出一部分數據進行評估測試,事實上我們只使用了一部分數據訓練模型.
2018-08-16 閱讀全文>>大多數學習算法都有些參數(parameter)需要設定,參數配置不同,學得模型的性能往往有顯著差別.因此,在進行模型評估與選擇時,除了要對適用學習算法進行選擇,還需對算法參數進行設定,這就是通常所說的“參數調節”或簡稱“調參”(parameter tuning)
2018-08-16 閱讀全文>>“自助法”(bootstrapping)是一個比較好的解決方案
2018-08-16 閱讀全文>>留一法的估計結果也未必永遠比其他評估方法準確
2018-08-16 閱讀全文>>“交叉驗證法”(cross validation)先將數據集D劃分為尼、個大小相似的互斥子集,即D= Di u D2 u U Dk,DinDj=g(t≠j) 每個子集Di都盡可能保持數據分布的一致性,即從D中通過分層采樣得到
2018-08-16 閱讀全文>>一般要采用若干次隨機劃分、重復進行實驗評估后取平均值作為留出法的評估結果
2018-08-16 閱讀全文>>訓練/測試集的劃分要盡可能保持數據分布的一致性
2018-08-16 閱讀全文>>訓練樣本相當于給同學們練習的習題,測試過程則相當于考試
2018-08-16 閱讀全文>>27029條 上一頁 1.. 1364 1365 1366 1367 1368 ..1802 下一頁