Coder Social home page Coder Social logo

linsamtw / kaggle_bosch_production_line_performance Goto Github PK

View Code? Open in Web Editor NEW
11.0 3.0 9.0 3.44 MB

Kaggle Bosch Production Line Performance, NO.74/top 6% (post competition analysis) 生產線分析、前 6 % ( 賽後分析 )

R 100.00%
bosch-production feature-engineering kaggle machine-learning xgboost r xgb mcc imbalance-evaluation

kaggle_bosch_production_line_performance's Introduction

Bosch Production Line Performance, NO.74/top 6%

Bosch Production Line Performance
e-mail : [email protected]
如果有問題可以直接寄信給我


結論 : 原始變數超過 4000 種,而我們的 Fitted model 只使用 50 個變數, 即可達到 top 6% ,因此這 50 個變數是重要變數,對於提高良率方面,可以先從這些變數下手。

注意 : 提供的 R code 由於使用到 parallel package 中的 mclapply 函數,因此只能在 linux 系統下執行。 或者你可以把 mclapply 改成 sapply,兩者主要是時間上的差異。

ps : 我分析這個問題時,比賽已過期,因此排名是我藉由提交預測結果,回推的排名


1. 緒論

在現今的產業上,對於產品製造,大多都傾向自動化,因此我選擇該問題進行製程分析。 製程分析與我過去處理過的資料---銷售/庫存預測非常不同,90%以上都是NA, 而在生產線上,這是合理的,我們必須找出哪個製程出錯,即重要變數。 問題是,NA過多,一般統計方法 AIC/BIC/lasso 無法處理missing value, 因此轉往使用 XGB 內建的 importance 找出重要變數。 由於我沒有相關製程經驗,也無實際接觸生產線,所以參考kernel中 Daniel FG 的 code ,並加入我的想法,主要重點在於 --- Feature Engineering 。

2. 資料介紹

Bosch Production Line Performance 是關於生產線( 製程 )的分析, 在自動化製造產品的過程中,可能由於設備老舊或人為疏失,導致不良品的產生, 但是我們不可能單純利用人工檢驗哪個環節出錯,因為整個製程中超過 4000 道程序。 因此,我們希望藉由製程分析,找出導致不良品產生的因素。

Response 0 1
1176868 6879

rate of Response 1 = 0.0058

2.1 資料準備

Kaggle 所提供的資料,可以分為以下六種 :

data size n (資料筆數) p (變數數量) 在 R 中佔的 ram
train_numeric 2.1GB 100萬筆 970個 8.5 gb
train_date 2.9GB 100萬筆 1157個 10.2 gb
train_categorical 2.7GB 100萬筆 2141個
test_numeric 2.1GB 100萬筆 969個
test_date 2.9GB 100萬筆 1157個
test_categorical 2.7GB 100萬筆 2141個

主要變數如下 :

變數名稱 意義
Response 目標值, 0 : 良品, 1 : 不良品
Id 產品代號
Lx_Sx_Fx L : line,S : station,F : feature number

舉例來說,L3_S36_F3939,代表第 3 條生產線上,第 36 個設備中的第 3939 個特徵值, 而 numeric 中代表的是,產品在該設備中收集到的值, date 代表產品經過該設備的時間點 , 我們並沒有使用 categorical,因此並不清楚該變數意義。

部分 train_numeric :

Id L0_S0_F0 L0_S0_F2 L0_S0_F4 L0_S0_F6 Response
11 -0.055 -0.086 0.294 0.330 0
13 0.003 0.019 0.294 0.312 0
14 NA NA NA NA 0
16 NA NA NA NA 0
18 -0.016 -0.041 -0.179 -0.179 0

部分 train_date

Id L0_S0_F0 L0_S0_F2 L0_S0_F4 L0_S0_F6
11 602.64 602.64 602.64 602.64
13 1331.66 1331.66 1331.66 1331.66
14 NA NA NA NA
16 NA NA NA NA
18 517.64 517.64 517.64 517.64

由於變數過多,如何找到重要變的方法,將在稍後的章節中提到。 該問題的 evaluation 是 MCC

3. 特徵製造

3.1 feature engineering 1 ( 特徵工程 1 )

在生產線上,可能在某一時段機器故障,導致產品出現問題,所以對 date data 進行特徵工程。

feature 解釋
first 進入該製成時間點
min 製成時間點最小值
last 離開該製成時間點
max 製成時間點最大值
class.amount 該製成時間點種類數量
na.amount na數量,如果時間點完全記錄,那該變數代表未經過製程的數量

以上分別對 所有生產線、L0、L1、L2、L3 進行特徵工程,製造特徵變數。 ex : all_first, L0_first, L1_first, L2_first, L3_first
由於 data 過大,進行分段處理,每次讀取 100 萬筆資料,製造 feature , 在 feature engineering 1 階段, kaggle rank 約在 50% , 結果不夠好,因此將進行,feature engineering 2。

3.2 feature engineering 2 ( 特徵工程 2 )

在生產線上,同一時間製造多個產品,它們的表現可能有高度相關,因此進行以下特徵工程。
注意:first[is.na(first)] = 0,否則對其他的 feature 製造會產生na。

feature 解釋 code
next 下一個產品是否為同時製造的產品
prev 上一個產品是否為同時製造的產品
total total next+prev
same.time 是否同時製造 total>0
order.same.time 在同時製造的產品中,該產品是第幾個 (cumsum(prev)+1) * same.time
group 第幾群同時製造的產品,同時製造代表可能有相同表現
group.length 該群數量 table(group)
cost.time 該製程耗時,耗時過長或過短,可能是因為產品出問題 max-min
prev.cost.time 與上一個產品相比,製程耗時差距,差距過大,可能是因為產品出問題 cost.time-c(NA,cost.time[1:length(cost.time)-1])
next.cost.time 與下一個產品相比,製程耗時差距,差距過大,可能是因為產品出問題 cost.time-c(cost.time[2:length(cost.time)],NA)
prev.na.amount 與上一個產品相比,na數量,差距過大,可能是因為產品出問題 na.amount--c(NA,na.amount[1:length(na.amount)-1])
next.na.amount 與下一個產品相比,na數量,差距過大,可能是因為產品出問題 na.amount--c(na.amount[2:length(na.amount)],NA)
prev.target 上一個產品表現,彼此間可能相關 c(NA,target[1:(nrow(target)-1)])
next.target 下一個產品表現,彼此間可能相關 c(target[2:nrow(target)],NA)

以上變數均對 所有生產線 進行特徵工程,並沒有對 L0~L3 進行特徵工程。

3.3 變數選擇

由於原始資料變數過多,資料龐大,不易建模,而在實際製程方面, 出問題的設備只佔極少數,因此, 我們對於 train_numeric 中的所有變數,進行變數選擇。

由於每個產品經過的製程不同,某些製程可能導致不良品產生, 因此我們對於所有製程,計算 不良品 比率,並進行排序, 選擇該比例中,前 100 個變數與後 100 個變數,作為特徵變數。

前 100 代表產出不良品比率高,有助於預測不良品, 而後 100 代表產出良品比例高,有助於預測良品。 實際上,不良品佔所有產品中約 0.058, 而不良品比率最高的設備,其不良品佔所有產品中約 0.045, 設備 ID 為 L3_S32_F3850。

train_numeric :

- res1.per var.name
1 0.0451 L3_S32_F3850
2 0.0093 L1_S24_F1768
3 0.0093 L1_S24_F1763
. ... ...
. ... ...
968 0.0003 L1_S25_F2512

3.4 feature selection

藉由 feature engineering 1、feature engineering 2 與變數選擇, 製造約 450 個變數。我們利用這些變數進行 XGBoost 建模, 主要利用 xgb.cv 找出 bset nrounds , 並利用 bset nrounds 在進行建模, 在模型建立後, 使用 xgb.importance 函數找出前 50 個重要變數, 選擇這 50 個變數作為 fitted model 的 feature。

amount of var = 450

pred
0 1
real 0 1176353 515
1 4216 2663

MCC = 0.568

amount of var = 50

pred
0 1
real 0 1176304 564
1 4360 2519

MCC = 0.545

以上發生一個我們不期望的事,預測是良品( 0 ),實際上是不良品( 1 )的比例過高( 左下角 ), 我們必須做一些處理,將左下角盡可能轉移到右上角中。 問題在於,兩者意義不同,我們不希望提供給客戶的產品不良率過高,移到右上角代表, 預測是不良品淘汰掉,但實際是良品,這樣的結果會造成,成本損失,但是跟成本相比,我們更不希望交給客戶不良品, 兩者嚴重性不同,因此需要做調整。

另外需要注意的是, xgb.cv 的 bset nrounds 並不代表最好的 nrounds, 我們藉由觀察 xgb.cv ,調整最後的 nrounds 。

nrounds train-rmse test-rmse
11 0.168337 0.168881
21 0.083219 0.085046
31 0.064824 0.067989
41 0.061830 0.065582
51 0.061191 0.065279****
61 0.060756 0.065227
71 0.060327 0.065229

Best iteration : 67, train-rmse:0.060464 test-rmse:0.065220

但是我們選 nround = 50 進行建模,實際在資料分析上, 目的並非單純的最小化 test-rmse ,而是在最小化且 train & test 夠靠近的情況下, 才是較好的 model。

3.5 other

該問題是有關二元分類問題,imbalance 非常嚴重, 而且 evaluation --- MCC 並沒有在 XGBoost 的 evaluation 中,因此我們進行以下處理:

  1. 使用 XGBoost 內建的 rmse 逼近 MCC。
  2. imbalance 處理上,先將 target 轉換為數值,則問題轉變為迴歸問題, 並使用 0.25 作為分界點,大於 0.25 是 1,小於 0.25 則是 0 。 由於 0 佔大多數,因此分界點往 0 靠近。

4. Fitted model

由於資料過大,我們分段進行 feature engineering 1、feature engineering 2 與 train_numeric 中的變數選擇,再利用 xgb.imporance 挑選出 50 個 feature , 並使用這些 feature 進行建模預測。 由於 XGBoost 中的 evaluation 沒有 MCC ,我們使用 rmse 逼近它, 由於該問題是關於二元分類,imbalance 非常嚴重,我們將它轉換為迴歸問題, 並使用 rate = 0.25 作為分界點,藉此處理部分的 imblance 問題,

最後的 Fitted model 達到 top 6% 的 rank , 與先前沒有進行特徵製造相比, MCC 進步了 2 倍以上 ( 0.18 -> 0.46 ), 可以說明該 特徵製造 找出了相對重要的 feature 。

50 feature

train_numeric

L3_S32_F3850** L1_S24_F1723** L3_S33_F3859** L3_S33_F3855 L1_S24_F1846
L3_S33_F3865 L1_S24_F1632 L3_S33_F3857 L3_S38_F3956 L1_S24_F1498
L1_S24_F1604 L3_S41_F4014 L1_S24_F1695 L3_S38_F3952 L3_S33_F3873
L1_S24_F1844 L3_S38_F3960 L2_S26_F3036 L2_S26_F3040 L2_S26_F3047
L2_S26_F3073 L1_S24_F1672 L1_S24_F1609 L1_S24_F1685

feature of train_date

all_next** next.cost.time** next.traget** L0_first**
all_prev** prev.traget** group.amount** next.na.amount
all_na.amount L3_first total cost.time
L2_first L3_na.amount prev.cost.time group
L3_last prev.na.amount L3_min L0_min
all_first all_class.amount L1_first L3_max
order.same.time L0_last

feature plot :

feature

延伸討論

資料分析並不單純只是ML,以下幾點是後續可以進行的方向:

  1. 由於找到重要變數,可以藉由這些變數去調整設備,找出問題進而修正。
  2. 先篩選出不良品,觀察重要變數( 時間 ),哪個時間點特別容易出錯,是否因為人為疏失所導致不良品?
  3. 修正model,type 1 error vs typr 2 error,我們不希望交給客戶的產品,不良品比率過高。
  4. 利用少量data建model,看是否依然能得到不錯的結果,這有助於未來在產品上良率篩選的成本。 舉例來說,如果只需要用 100 個data建模,那收集data的成本就會大大降低,畢竟良品vs不良品還是必須先由人為判斷,之後再交給ML, 少量DATA建模將有助於減少成本,或是提供強模型/弱模型,並對應價格,對於不同問題有不同的需求。
  5. 未來可以利用DL直接進行圖片分類,進行良品/不良品判斷,結合我們的模型,類似ensemble的概念,提高準確度。
  6. 待續

Reference

Bosch Production Line Performance. ( 2016 )

Daniel FG. ( 2016 )

kaggle_bosch_production_line_performance's People

Contributors

linsamtw avatar

Stargazers

 avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar  avatar

Watchers

 avatar  avatar  avatar

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.