スタッキングする場合、ナイーブベイスと、KNN以外に、元の説明変数もLightGBMへ渡したほうがいい?
スタッキングにおいて、元の説明変数もLightGBMなどの強力なモデルに渡すかどうかは、問題の性質やデータに依存しますが、一般的には以下のような考慮事項があります:
-
モデルの多様性: スタッキングには、異なる種類のモデルを組み合わせることでモデルの多様性を高めることが重要です。元の説明変数をLightGBMに渡すことで、モデルの種類を増やし、スタッキングによる性能向上の可能性を高めることができます。
-
情報の重複: 元の説明変数をLightGBMに渡す場合、元の説明変数とスタッキングで使用する他のモデルの出力が似通っている場合、情報の重複が生じる可能性があります。この場合、スタッキングの効果が低下する可能性があります。
-
計算コスト: 元の説明変数もLightGBMに渡すことで、計算コストが増加する可能性があります。特に、元の説明変数の数が多い場合や、LightGBMのハイパーパラメータを調整する必要がある場合は、計算コストが増える可能性があります。
以上の点を考慮して、元の説明変数をLightGBMに渡すかどうかを決定してください。データの性質や実験結果に基づいて、最適なアプローチを見つけることが重要です。

ディスカッション
コメント一覧
まだ、コメントがありません