๐ก TIL/ML&DL
Uber๊ฐ ๋ฅ๋ฌ๋ ๋ชจ๋ธ์ ์ฌ์ฉํ์ฌ ๋์ฐฉ์๊ฐ์ ์์ธกํ๋ ๋ฐฉ๋ฒ
DeepETA: How Uber Predicts Arrival Times Using Deep Learning Uber๊ฐ ๋์ฐฉ์๊ฐ์ ์์ธกํ๊ธฐ ์ํด ์ ๋ฅ๋ฌ๋ ๋ชจ๋ธ๋ก ๋์ด๊ฐ๊ฒ ๋์๋์ง ์ ์ ์๋ ๊ธ์ด๋ค. ์๋ ๋ณธ๋ฌธ์ ์ด๋ฅผ ์ฝ๊ณ ์ ๋ฆฌํ ๋ด์ฉ์ด๋ค. ์ฐ๋ฒ๋ ์ฌ์ฉ์์๊ฒ ์ฐจ๋ ๋์ฐฉ ์์ธก ์๊ฐ(ETA)์ ์ ๊ณตํ๋ค. ETA๋ฅผ ์ฌ์ฉํ์ฌ ์๊ธ์ ๊ณ์ฐํ๊ณ , ํฝ์ ์๊ฐ์ ์ถ์ ํ๊ณ , ๋ผ์ด๋์ ๊ธฐ์ฌ๋ฅผ ์ฐ๊ฒฐํ๊ณ , ๋ฐฐ์ก์ ๊ณํํ๋ ๋ฑ์ ์์ ์ ์ํํ๋ฉฐ, ์ด๋ฅผ ์ ํํ๊ฒ ์ถ์ ํ๋ ๋ฅ๋ ฅ์ ๋งค์ฐ ์ค์ํ๋ค. ์ ํํ ETA ์ถ์ ์ ๊ณ ๊ฐ์๊ฒ ๊ธ์ ์ ์ธ ๊ฒฝํ์ ์ ๊ณตํ๊ณ , ์๋น์ค ๊ฐ๊ฒฉ๊ณผ ์ด์ ๊ฒฝ๋ก ๋ฑ์ ์ค์ ํ๋ ๋ฐ๋ ํ์ฉ๋๋ค. ์ด ๊ธ์์ ์ฐ๋ฒ๊ฐ ETA ์์ธก ๊ฐ์ ์ ์ํด ์ ๋ฅ๋ฌ๋ ๋ชจ๋ธ์ ์ ํํ๊ณ , ์ด๋ค ๊ธฐ์ ์ ์ฌ์ฉํ๋์ง ๋ค๋ฃฌ๋ค. ์ ํต์ ์ธ ETA ์์ง..
Decision Tree
์ด๋ ต๊ณ ๋ณต์กํ ๋ชจ๋ธ์ด ์๋ ๊ธฐ๋ณธ ํธ๋ฆฌ๋ชจ๋ธ์ด ์ฑ๋ฅ์ด ๋ ์ข์ ๊ฒฝ์ฐ๊ฐ ์๋ค. ๋ ์ธ๊ธฐ์๋ ๋ถ์คํ ๋ชจ๋ธ์ธ Light GBM, XG boost์ Tree๋ชจ๋ธ์ ๊ณ ๋ํํ ๊ฒ์ด๊ณ , ๋ ๋ํ ํ๋ก์ ํธ์์ ์ฌ์ฉํ๋ ๋ชจ๋ธ์ด๊ธฐ์ ๋ค์ ํ ๋ฒ ์ ํํ ์ดํดํด๋ณด๊ณ ์ StatQuest: Decision Trees๋ฅผ ๋ณด๊ณ ์ ๋ฆฌํด๋ดค๋ค. * ์ด ๊ธ์ StatQuest: Decision Trees๋ฅผ ๋ณด๊ณ ์ ๋ฆฌํ ๋ด์ฉ์ ๋๋ค. * 0. Decision Tree Decision Tree๋ ๋ถ๋ฅ ๊ท์น์ ํตํด ๋ฐ์ดํฐ๋ฅผ ๋ถ๋ฅ, ํ๊ทํ๋ ์ง๋ ํ์ต ๋ชจ๋ธ ์ค ํ๋์ด๋ค. ํ ๋ฒ์ ๋ถ๊ธฐ ๋๋ง๋ค ๋ณ์ ์์ญ์ ๋ ๊ฐ๋ก ๊ตฌ๋ถํ๋ฉฐ, ์ง๋ฌธ์ด๋ ์ ๋ต์ ๋ ธ๋(Node)๋ผ๊ณ ๋ถ๋ฆฐ๋ค. ๋งจ ์ฒ์ ๋ถ๋ฅ ๊ธฐ์ค์ Root Node, ์ค๊ฐ ๋ถ๋ฅ ๊ธฐ์ค์ Intermediate N..
์ผ๊ตด์ธ์์์ ๋ ธ์ด์ฆ ์ ๊ฑฐ๋ฅผ ์ํ PCA ์ ๊ทผ
PCA๊ฐ ์์์ธ์์ ํ์ฉ๋๋ ๋ํ์ ์ธ ์๋ ์ผ๊ตด์ธ์(face recognition)์ ๋๋ค. ์ด์ ๊ด๋ จ๋ ๊ฐ๋ ํน์ ์ฉ์ด๋ก์ eigenface(์์ด๊ฒํ์ด์ค)๊ฐ ์์ต๋๋ค. ๋ค์๊ณผ ๊ฐ์ 20๊ฐ์ 45x40 ์ผ๊ตด ์ด๋ฏธ์ง๋ค์ด ์์ต๋๋ค. ์ด๋ฏธ์ง์์ ํฝ์ ๋ฐ๊ธฐ๊ฐ์ ์ผ๋ ฌ๋ก ์ฐ๊ฒฐํ์ฌ ๋ฒกํฐ๋ก ๋ง๋ค๋ฉด, ์ด๋ค ๊ฐ๊ฐ์ ์ผ๊ตด ์ด๋ฏธ์ง๋ 45x40 = 1,800 ์ฐจ์์ ๋ฒกํฐ๋ก ์๊ฐํ ์ ์์ต๋๋ค. (์ฆ, ๊ฐ๊ฐ์ ์ด๋ฏธ์ง๋ 1,800 ์ฐจ์ ๊ณต๊ฐ์์ ํ ์ (์ขํ)์ ๋์) ์ด์ ์ด 20๊ฐ์ 1,800์ฐจ์ ์ ๋ฐ์ดํฐ๋ค์ ๊ฐ์ง๊ณ PCA๋ฅผ ์ํํ๋ฉด ๋ฐ์ดํฐ์ ์ฐจ์ ์์ ๋์ผํ ๊ฐ์์ ์ฃผ์ฑ๋ถ ๋ฒกํฐ๋ค์ ์ป์ ์ ์์ต๋๋ค. ์ด๋ ๊ฒ ์ป์ด์ง ์ฃผ์ฑ๋ถ ๋ฒกํฐ๋ค์ ๋ค์ ์ด๋ฏธ์ง๋ก ํด์ํ ๊ฒ์ด eigenface ์ ๋๋ค. (์ผ๊ตด ์ด๋ฏธ์ง๋ฅผ ๊ฐ์ง๊ณ ์ป์ ๋ฒกํฐ์ด๊ธฐ์ ei..
XGBoost
Basic Concept ์์๋ธ : ์ฌ๋ฌ ๋ชจ๋ธ๋ค์ ์งํฉ์ ํตํด ์์ธก ๊ฒฐ๊ณผ๋ฅผ ๋ง๋ค์ด ๋ด๋ ๊ฒ ๋ถ์คํ : ๋ชจ๋ธ๋ค์ ์์๋ธ ํํ๋ก ๋ง๋๋ ์ผ๋ฐ์ ์ธ ๊ธฐ๋ฒ : ์ฐ์๋ ๋ผ์ด๋๋ง๋ค ์์ฐจ๊ฐ ํฐ ๋ ์ฝ๋๋ค์ ๊ฐ์ค์น๋ฅผ ๋์ฌ ์ผ๋ จ์ ๋ชจ๋ธ๋ค์ ์์ฑ ๋ฐฐ๊น : ์ํ์ ์ฌ๋ฌ ๋ฒ ๋ฝ์(Bootstrap) ๊ฐ ๋ชจ๋ธ์ ํ์ต์์ผ ๊ฒฐ๊ณผ๋ฌผ์ ์ง๊ณ(Aggregration) ๋ถ์คํ ์ ์ด์ ๋ชจ๋ธ์ด ๊ฐ๋ ์ค์ฐจ๋ฅผ ์ค์ด๋ ๋ฐฉํฅ์ผ๋ก๋ค์ ๋ชจ๋ธ์ ์ฐ์์ ์ผ๋ก ์์ฑํ๋ค. ๋ฐฐ๊น ์ ์๋์ ์ผ๋ก ํ๋์ด ๊ฑฐ์ ํ์์์ง๋ง, ๋ถ์คํ ์ ์ ์ฉํ๊ณ ์ ํ๋ ๋ฌธ์ ์ ๋ฐ๋ผ ์ฃผ์ ํ์ XGBoost GBM์ residaul์ ์ค์ด๋ ๋ฐฉํฅ์ผ๋ก weak learner๋ฅผ ๊ฒฐํฉํด ๊ฐ๋ ฅํ ์ฑ๋ฅ์ ์๋ํ์ง๋ง, ํด๋น train data์ residual์ ๊ณ์ ์ค์ฌ overfitting ๋๊ธฐ ์ฝ๋ค๋..
BERT
BERT Bidirectional Encoder Representations from Transformers BERT๋? Encoder: ์ ๋ ฅ๊ฐ์ ์๋ฐฉํฅ์ผ๋ก ์ฒ๋ฆฌํจ. Decoder: ์ ๋ ฅ๊ฐ์ ์ผ์ชฝ์์ ์ค๋ฅธ์ชฝ์ผ๋ก ๋จ๋ฐฉํฅ ์ฒ๋ฆฌํจ. ๋จ์ด๋ฅผ ํ๋์ฉ ์ฝ์ด๊ฐ๋ฉด์ ๋ค์ ๋จ์ด๋ฅผ ์์ธกํ๋ ๋ฐฉ์(์ผ→์ค) ์ ๋ง๋ค์ด์ง BERT ์ธ์ด๋ชจ๋ธ ์์ 1๊ฐ์ classification layer๋ง ๋ถ์ฐฉํ์ฌ ๋ค์ํ NLP task๋ฅผ ์ํ Bidrectional Encoder Representations from Transformers : Transformer์ ์๋ฐฉํฅ ์ธ์ฝ๋๋ฅผ ์ฌ์ฉํ ์ฌ์ ํ์ต ๋ชจ๋ธ ๊ธฐ์กด์ RNN, CNN ๊ณ์ด์ ์ ๊ฒฝ๋ง ๊ตฌ์กฐ๋ฅผ ํํผํ์ฌ Self-Attention ๊ธฐ๋ฒ์ ์ฌ์ฉํ ๊ธฐ๊ณ๋ฒ์ญ ์ ๊ฒฝ๋ง → ์๋ฐฉํฅ์ผ๋ก ๋ฌธ๋งฅ์ ์ดํดํ ..