학습에 사용된 데이터는 6차 전처리 과정에서 도출된 데이터를 사용하였다.
6차 모델 테스트에서는 지금까지 집중해왔던 Bagging 알고리즘의 랜덤 포레스트 모델이 아닌, 또다른 앙상블 알고리즘인 GBM을 시도해보았다. 사용한 모델은 LightGBM으로 아래오 같은 파라미터를 사용하였다.
LightGBM Model
lgb_params = {
'objective':'binary',
'boosting_type':'gbdt',
'metric':['auc','rmse'],
'n_jobs':-1,
'learning_rate':0.01,
'num_leaves': 2**7,
'max_depth':-1,
'tree_learner':'serial',
'colsample_bytree': 0.95,
'subsample_freq':1,
'subsample':0.9,
'n_estimators':62_000,
'max_bin':4092,
'verbose':-1,
'seed': SEED,
}
이미 랜덤 포레스트에 비해 매우 우수한 성능을 보여주었으나, 아직 하이퍼 파라미터에 대한 여러 시도가 수행되지 않았기 때문에 더 높은 성능을 끌어내는게 가능할 것이라 전망하고 있다.