目錄 為何要挑選有用的特徵? Sequential Backward Selection 其他有關選擇演算法的變形 實際案例 為何要挑選有用的特徵? 不是所有特徵對目標的預測都有幫助 沒有影響力的特徵容易對預測目標造成負面影響 特徵之間的交互影響過多導致不容易解釋 Sequential Backward Selection 運用模型好壞判斷哪些特徵需要從特徵集中剔除掉 Objective Function:用來判斷模型好壞藉以決定哪個特徵需要剔除的函數 演算法 Step1. 決定 Objective Function、模型種類、所有想要納入挑選的特徵,以及設定最終想要有幾個特徵 Step2. 使用所有挑選的特徵建立模型 Step3. 輪流扣除一個特徵後,再次建立模型,並運用 Objective Function 計算模型效能 Step4. 根據模型評估結果,挑選最佳特徵組合 Step5. 重複 Step3、Step4,直到剩下指定特徵數的特徵 優點:觀念簡單、操作容易 缺點:容易忽略掉特定特徵組合、變異多 其他有關選擇演算法的變形 Sequential Forward Selection 與 Sequential Backward Selection 完全相反,從一開始只有一個特徵,到最後擁有指定數量的特徵 優點、缺點與 Sequential Forward Selection 相似。 Sequential Floating Forward Selection 在選入特徵的過程中,插入一次或數次移除已被選入的特徵的判斷,增加特徵組合的數量以達到更大的模型效能 Sequential Floating Backward Selection 與 Sequential Floating Forward Selection 剛好相反,在某一次排除特徵的過程中,插入一次或數次加入已被排除的特徵的判斷。 Reference Raschka S. [Sebastian Raschka] (2022, January 28). 13.4.4 Sequential Feature Selection (L13: Feature Selection) [Video]. Youtube. https://www.youtube.com/watch?v=0vCXcGJg5BoJoe Bemister-Buffington, Alex J. Wolf, Sebastian Raschka, and Leslie A. Kuhn (2020)Machine Learning to Identify Flexibility Signatures of Class A GPCR InhibitionBiomolecules 2020, 10, 454. (https://www.mdpi.com/2218-273X/10/3/454#)