D11:常用的數值取代:中位數與分位數連續數值標準化
D13:DataFrame operationData frame merge常用的 DataFrame 操作
D14:程式實作 EDA correlation相關係數簡介
D16:EDA 不同數值範圍間的特徵如何檢視繪圖與樣式Kernel Density Estimation (KDE)
D21:模型初體驗 Logistic Regression
Day_031_Feature_Importance.ipynb
D35:regression vs. classification
D36:評估指標選定evaluation metrics
D37:regression model 介紹 - 線性迴歸羅吉斯回歸
D38:regression model 程式碼撰寫
D39:regression model 介紹 - LASSO 回歸 Ridge 回歸
D40:regression model 程式碼撰寫
D41:tree based model - 決策樹 (Decision Tree) 模型介紹
D42:tree based model - 決策樹程式碼撰寫
D43:tree based model - 隨機森林 (Random Forest) 介紹
D44:tree based model - 隨機森林程式碼撰寫
D46:tree based model - 梯度提升機程式碼撰寫
D51 - D53:Kaggle期中考 考ML與調參相關
D54:clustering 1 非監督式機器學習簡介
D59:dimension reduction 1 降維方法-主成份分析
D5:如何新建一個 dataframe 如何讀取其他資料 (非 csv 的資料)
D61:dimension reduction 2 降維方法-T-SNE
D74:Gradient Descent 數學原理
D77:訓練神經網路的細節與技巧 - Validation and overfit
D79:訓練神經網路的細節與技巧 - Learning rate effect
D80:[練習 Day] 優化器與學習率的組合與比較
D81:訓練神經網路的細節與技巧 - Regularization
D82 訓練神經網路的細節與技巧 - Dropout
D83 訓練神經網路的細節與技巧 - Batch normalization
D85 訓練神經網路的細節與技巧 - 使用 callbacks 函數做 earlystop
D86 訓練神經網路的細節與技巧 - 使用 callbacks 函數儲存 model
D87 訓練神經網路的細節與技巧 - 使用 callbacks 函數做 reduce learning rate
D88 訓練神經網路的細節與技巧 - 撰寫自己的 callbacks 函數
D89 訓練神經網路的細節與技巧 - 撰寫自己的 Loss function
D91 [練習 Day] 使用傳統電腦視覺與機器學習進行影像辨識
D92 卷積神經網路 (Convolution Neural Network, CNN) 簡介
D94 卷積神經網路 - 卷積(Convolution)層與參數調整
D95 卷積神經網路 - 池化(Pooling)層與參數調整
D97 使用 CNN 完成 CIFAR-10 資料集
Folders and files Name Name Last commit message
Last commit date
parent directory Jan 11, 2021
Jan 11, 2021
View all files
You can’t perform that action at this time.