刷pos機顯示參數,xgboost參數調整筆記

 新聞資訊  |   2023-04-24 09:48  |  投稿人:pos機之家

網(wǎng)上有很多關(guān)于刷pos機顯示參數,xgboost參數調整筆記的知識,也有很多人為大家解答關(guān)于刷pos機顯示參數的問(wèn)題,今天pos機之家(m.xjcwpx.cn)為大家整理了關(guān)于這方面的知識,讓我們一起來(lái)看下吧!

本文目錄一覽:

1、刷pos機顯示參數

刷pos機顯示參數

xgboost是目前最火熱的模型之一

調參是機器學(xué)習的黑暗藝術(shù),通常最優(yōu)的模型參數依賴(lài)于場(chǎng)景,基本上沒(méi)有一個(gè)普適的方法。xgboost是現階段使用特別多的一個(gè)模型,這里只能一個(gè)簡(jiǎn)單的調參指引

理解偏置-方差的權衡

這個(gè)偏置-方差 權衡的概念是一般機器學(xué)習或者統計課程當中的基本概念。其基本思路就是如果我們允許模型變得更加復雜,例如加深gbdt的每棵樹(shù),模型就擁有更好的逼近能力,從而得到偏置更小的模型,但是我們需要更多的訓練數據。大多數xgboost中的參數都是偏置-方差的權衡。最好的參數會(huì )權衡好最終模型的復雜程度和預測能力。這里將從過(guò)擬合控制和非平衡數據出發(fā)考慮參數

控制過(guò)擬合:

當我們觀(guān)察到訓練的時(shí)候準確率非常高,但是測試準確率很低的時(shí)候,就是模型過(guò)擬合的時(shí)候通常xgboost的使用中,我們有兩個(gè)方法去控制過(guò)擬合現象

第一個(gè)方法是直接控制模型的復雜度

這里面包括max_depth,min_child_weight和gamma

第二種方法是在模型中添加隨機性來(lái)提高魯棒性

包括subsample和colsample_bytree參數

我們還可以降低步長(cháng)eta,但是需要記得同時(shí)提高樹(shù)的棵樹(shù)

處理非平衡數據集

通常而言廣告的點(diǎn)擊率預估數據集都是非平衡的。這其實(shí)會(huì )影響最終xgboost學(xué)習得到的模型,通常我們有兩個(gè)方法來(lái)改善

如果最終模型是為了提高預測的auc

調整scale_pos_weight平衡正負樣本的權重

使用auc來(lái)做驗證

如果最終模型看重預測的正確率

通過(guò)設置參數max_delta_step來(lái)幫助模型收斂

以上就是關(guān)于刷pos機顯示參數,xgboost參數調整筆記的知識,后面我們會(huì )繼續為大家整理關(guān)于刷pos機顯示參數的知識,希望能夠幫助到大家!

轉發(fā)請帶上網(wǎng)址:http://m.xjcwpx.cn/news/32817.html

你可能會(huì )喜歡:

版權聲明:本文內容由互聯(lián)網(wǎng)用戶(hù)自發(fā)貢獻,該文觀(guān)點(diǎn)僅代表作者本人。本站僅提供信息存儲空間服務(wù),不擁有所有權,不承擔相關(guān)法律責任。如發(fā)現本站有涉嫌抄襲侵權/違法違規的內容, 請發(fā)送郵件至 babsan@163.com 舉報,一經(jīng)查實(shí),本站將立刻刪除。