特徴量のカラムの数が違うっていう事?
はい、その通りです。特徴量の数が異なることが問題の原因です。ランダムフォレストモデルは、訓練時に使用された特徴量の数と同じ数の特徴量が予測時に提供されることを期待します。
エラーメッセージからもわかるように、訓練時には58373の特徴量が使用されましたが、新しいデータには560の特徴量しかありませんでした。この違いがエラーの原因です。
したがって、新しいデータをモデルに適用する際には、訓練時と同じ数の特徴量を提供する必要があります。そのために、新しいデータをベクトル化する際には、同じベクトル化器(例えば、CountVectorizer)を使用して、同じ形式の特徴量を生成する必要があります。
関連記事

funcの引数は?
df.apply()メソッドのfunc引数は、各行または各列に適用される関数です ...

KNNとナイーブベイスを説明変数としてランダムフォレストのメタモデルをつくって、そのランダムフォレストとKNNとナイーブベイスをつかってLightGBMでメタモデルを作ったらどうかと思ったのだが
理論的には、KNNとナイーブベイズを説明変数としてランダムフォレストのメタモデル ...

model.objects.filter(itemCode=item_info.get(“itemCode”)).first() これんな感じに取得するん?
はい、正しいです。filter() メソッドを使って itemCode が指定さ ...

ランダムフォレストやブースティング系は勝手に標準化してくれないの?
ランダムフォレストやブースティングなどの決定木ベースのモデルは、特徴量のスケーリ ...
ディスカッション
コメント一覧
まだ、コメントがありません