Pythonで5次元の特徴量がある回帰のサンプルコード
以下は、Pythonで5次元の特徴量を持つ回帰モデルを実装するためのサンプルコードです。この例では、scikit-learnライブラリを使用しています。
python
import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error
# ダミーデータの生成
np.random.seed(0)
n_samples = 1000
n_features = 5
X = np.random.rand(n_samples, n_features) # 5次元の特徴量
coefficients = np.array([3, 1.5, 2, 0.5, 1]) # ダミーの係数
intercept = 2 # 切片
# ダミーの目的変数を生成
y = np.dot(X, coefficients) + intercept + np.random.normal(0, 0.1, n_samples)
# データを訓練データとテストデータに分割
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 線形回帰モデルの作成と訓練
model = LinearRegression()
model.fit(X_train, y_train)
# モデルの評価
train_score = model.score(X_train, y_train)
test_score = model.score(X_test, y_test)
print(f"Train R^2 score: {train_score:.3f}")
print(f"Test R^2 score: {test_score:.3f}")
# テストデータを用いた予測
y_pred = model.predict(X_test)
# 平均二乗誤差の計算
mse = mean_squared_error(y_test, y_pred)
print(f"Mean Squared Error: {mse:.3f}")
このコードでは、numpyを使用してダミーデータを生成し、scikit-learnのLinearRegressionモデルを使用して回帰モデルを訓練しています。ダミーデータは5次元の特徴量を持ち、目的変数はそれらの特徴量に対する線形結合にノイズが加わったものです。最後に、モデルの性能を評価するためにR^2スコアと平均二乗誤差を計算しています。

ディスカッション
コメント一覧
まだ、コメントがありません