[python] scikit-learn을 사용한 리지 회귀
리지 회귀는 선형 회귀의 한 종류로, 오버피팅을 방지하기 위해 가중치에 제약을 주는 방법입니다. scikit-learn은 파이썬에서 머신 러닝을 쉽게 사용할 수 있도록 도와주는 라이브러리입니다. 이제 scikit-learn을 사용하여 리지 회귀 모델을 만드는 방법을 살펴보겠습니다.
먼저, 필요한 라이브러리를 가져옵니다.
import numpy as np
from sklearn.linear_model import Ridge
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error
다음으로, 데이터를 불러와서 특성과 타깃으로 나눕니다.
data = np.loadtxt('data.csv', delimiter=',')
X = data[:, :-1]
y = data[:, -1]
그리고 데이터를 학습 데이터와 테스트 데이터로 나눕니다.
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
이제 리지 회귀 모델을 만들고 학습시킵니다.
ridge = Ridge(alpha=0.5)
ridge.fit(X_train, y_train)
마지막으로, 테스트 데이터를 사용하여 예측을 수행하고 성능을 평가합니다.
y_pred = ridge.predict(X_test)
mse = mean_squared_error(y_test, y_pred)
print("Mean Squared Error:", mse)
위의 예제 코드를 실행하여 scikit-learn을 사용한 리지 회귀를 구현할 수 있습니다. 데이터를 로드하고, 특성과 타깃을 분리한 다음, 학습 데이터와 테스트 데이터로 나누고, 모델을 학습시키고 성능을 평가하는 단계를 따르면 됩니다.
더 자세한 내용은 scikit-learn의 공식 문서를 참고하세요.