機(jī)器學(xué)習(xí)算法崗常見(jiàn)筆試面試題與知識(shí)點(diǎn)整理匯總
發(fā)布時(shí)間:2019-12-23 13:42:58 作者:豬豬會(huì)飛
我要評(píng)論

這篇文章主要介紹了機(jī)器學(xué)習(xí)算法崗常見(jiàn)筆試面試題與知識(shí)點(diǎn),整理匯總了機(jī)器學(xué)習(xí)算法崗位招聘過(guò)程中遇到的各種常見(jiàn)問(wèn)題與所涉及的知識(shí)點(diǎn),需要的朋友可以參考下
- 數(shù)據(jù)庫(kù)中的主鍵、索引和外鍵(數(shù)據(jù)分析崗經(jīng)常問(wèn))
- 決策樹(shù)ID3和C4.5的差別?各自?xún)?yōu)點(diǎn)?
- Boost算法
- CART(回歸樹(shù)用平方誤差最小化準(zhǔn)則,分類(lèi)樹(shù)用基尼指數(shù)最小化準(zhǔn)則)
- GBDT與隨機(jī)森林算法的原理以及區(qū)別。
- 優(yōu)化算法中常遇到的KKT條件?作用是?
- 最近鄰算法KNN(分類(lèi)與回歸)
- L1和L2函數(shù)?L1和L2正則項(xiàng)的比較,如何解決 L1 求導(dǎo)困難?
- L1正則為何可把系數(shù)壓縮成0,說(shuō)明坐標(biāo)下降法的具體實(shí)現(xiàn)細(xì)節(jié)
- LR為什么用sigmoid函數(shù)。這個(gè)函數(shù)有什么優(yōu)點(diǎn)和缺點(diǎn)?為什么不用其他函數(shù)?
- LR和SVM的區(qū)別?libsvm和liblinear的區(qū)別?
- Logistics與隨機(jī)森林比較
- Logistics(理論推導(dǎo));Logistic回歸的推導(dǎo),如何得到objective function?
- SVM與隨機(jī)森林的差別?
- SVM為何要引入拉格朗日的優(yōu)化方法?
- SVM原問(wèn)題和對(duì)偶問(wèn)題關(guān)系?
- SVM在哪個(gè)地方引入的核函數(shù), 如果用高斯核可以升到多少維。
- SVM如何防止過(guò)擬合?
- SVM的目標(biāo)函數(shù)?常用的核函數(shù)有哪些?
- SVM的過(guò)程,理論推導(dǎo)
- bagging、adaboost、boosting區(qū)別在哪
- EM 與 k-means 的關(guān)系?
- k-means算法中的k如何選?。?/li>
- k-means算法初始點(diǎn)怎么選擇?
- k-means的原理,優(yōu)缺點(diǎn)以及改進(jìn)。
- k折交叉驗(yàn)證中k取值多少有什么關(guān)系?
- L2懲罰項(xiàng)是怎么減小Overfitting的?L1,L2等范數(shù)的通式是?差別是?在什么場(chǎng)景下用什么范數(shù)?L1在0處不可導(dǎo),怎么處理?
- 隨機(jī)森林和GBDT差別?
- RF, GBDT, xgboost的區(qū)別?
- 為什么要做數(shù)據(jù)歸一化?
- 梯度下降法的原理以及各個(gè)變種(批量梯度下降,隨機(jī)梯度下降法,mini 梯度下降法),以及這幾個(gè)方法會(huì)不會(huì)有局部最優(yōu)問(wèn)題。
- 牛頓法原理和適用場(chǎng)景,有什么缺點(diǎn),如何改進(jìn)(擬牛頓法)
- 什么情況下一定會(huì)發(fā)生過(guò)擬合?
- 貝葉斯估計(jì)?
- 介紹LR、RF、GBDT ,分析它們的優(yōu)缺點(diǎn)
- 會(huì)哪些機(jī)器學(xué)習(xí)算法?信息熵公式?
- 決策樹(shù)原理;決策樹(shù)處理連續(xù)值的方法;決策樹(shù)如何防止過(guò)擬合;決策樹(shù)過(guò)擬合哪些方法,前后剪枝。
- 分類(lèi)模型可做回歸分析嗎?反過(guò)來(lái)可以嗎?
- 分類(lèi)模型和回歸模型的區(qū)別?
- 判別模型和生成模型?差別
- 各個(gè)模型的Loss function,牛頓學(xué)習(xí)法、SGD如何訓(xùn)練。
- 在模型的訓(xùn)練迭代中,怎么評(píng)估效果?
- 如何防止過(guò)擬合(增加數(shù)據(jù),減少模型復(fù)雜度->正則化)
- 對(duì)于同分布的弱分類(lèi)器,求分類(lèi)器均值化之后的分布的均值跟方差。
- 對(duì)于機(jī)器學(xué)習(xí)你都學(xué)了哪些?講一個(gè)印象深的。
- 常見(jiàn)分類(lèi)模型( svm,決策樹(shù),貝葉斯等)的優(yōu)缺點(diǎn),適用場(chǎng)景以及如何選型
- 數(shù)據(jù)歸一化的方式
- 手寫(xiě)k-means的偽代碼。
- 手寫(xiě)svm硬軟間隔對(duì)偶的推導(dǎo)
- 手寫(xiě)邏輯回歸(損失函數(shù)及更新方式推導(dǎo))
- BP算法原理
- 改變隨機(jī)森林的訓(xùn)練樣本數(shù)據(jù)量,是否會(huì)影響到隨機(jī)森林學(xué)習(xí)到的模型的復(fù)雜度?
- 數(shù)據(jù)挖掘各種算法,以及各種場(chǎng)景下的解決方案
- 是否了解mutual infomation、chi-square、LR前后向、樹(shù)模型等特征選擇方式。
- 是否了解線(xiàn)性加權(quán)、bagging、boosting、cascade等模型融合方式
- 有哪些常見(jiàn)的分類(lèi)器,簡(jiǎn)單介紹下原理
- 機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的區(qū)別
- 線(xiàn)性回歸與邏輯回歸區(qū)別?
- 機(jī)器學(xué)習(xí):幾種樹(shù)模型的原理和對(duì)比,樸素貝葉斯分類(lèi)器原理以及公式,出現(xiàn)估計(jì)概率值為 0 怎么處理(拉普拉斯平滑),缺點(diǎn);
- DBSCAN聚類(lèi)算法原理
- 主成分分析法原理、MapReduce原理、Spark等(數(shù)據(jù)崗題)
- 梯度下降、牛頓、擬牛頓算法的原理
- 梯度下降的優(yōu)缺點(diǎn)。
- 深度學(xué)習(xí)有很大部分是CNN,給他用通俗的語(yǔ)言解釋下卷積的概念,解釋下CNN中的優(yōu)勢(shì)及原因
- 牛頓法、隨機(jī)梯度下降算法和直接梯度下降算法的區(qū)別?
- 牛頓法推導(dǎo)
- 特征選擇方法有哪些
- 由數(shù)據(jù)引申到數(shù)據(jù)不平衡怎么處理(10W正例,1W負(fù)例,??蜕嫌性})
- 聊聊SVM,這段說(shuō)了好久,從基本的線(xiàn)性可分到不可分,相關(guān)升維,各種核函數(shù),每個(gè)是如何實(shí)現(xiàn)升。以及出現(xiàn)了XX問(wèn)題,分析是樣本的原因還是其他原因。針對(duì)不同情況,采取什么解決方案較好。
- 自己實(shí)現(xiàn)過(guò)什么機(jī)器學(xué)習(xí)算法
- 解決過(guò)擬合的方法有哪些?
- 解釋一下過(guò)擬合和欠擬合,有哪些方法防止過(guò)擬合。
- 如何構(gòu)造決策樹(shù)、計(jì)算信息熵和信息增益、說(shuō)明C4.5 、ID3、 CART的區(qū)別及優(yōu)缺點(diǎn)
- 詳細(xì)討論了樣本采樣和bagging的問(wèn)題
- 說(shuō)一下Adaboost,權(quán)值更新公式。當(dāng)弱分類(lèi)器是LR時(shí),每個(gè)樣本的的權(quán)重是w1,w2...,寫(xiě)出最終的決策公式。
- 說(shuō)了一下bagging跟boosting。
- 說(shuō)明L1和L2正則的效果與為什么形成這種情況(L1正則稀疏,L2正則平滑,之后說(shuō)明就是畫(huà)圖說(shuō)明正則化)
- 選個(gè)你熟悉的機(jī)器學(xué)習(xí)方法 ,著重介紹一下產(chǎn)生原因,推導(dǎo)公式,背后統(tǒng)計(jì)意義什么等等
- 邏輯回歸估計(jì)參數(shù)時(shí)的目標(biāo)函數(shù)
- 邏輯回歸的值表示概率嗎?
- 數(shù)據(jù)挖掘的基礎(chǔ)知識(shí),包括SVM,邏輯回歸、EM、K-means等,然后給出很多場(chǎng)景問(wèn)你遇到這些情況你如何處理數(shù)據(jù),怎么進(jìn)行建模等
- 隨機(jī)梯度下降,標(biāo)準(zhǔn)梯度
- 隨機(jī)森林和GBDT的區(qū)別?LR的參數(shù)怎么求解?有沒(méi)有最優(yōu)解?
相關(guān)文章
機(jī)器學(xué)習(xí)算法崗的常見(jiàn)面試問(wèn)題及應(yīng)試準(zhǔn)備總結(jié)
這篇文章主要介紹了機(jī)器學(xué)習(xí)算法崗的常見(jiàn)面試問(wèn)題及應(yīng)試準(zhǔn)備,總結(jié)分析了機(jī)器學(xué)習(xí)算法崗位面試中經(jīng)常會(huì)遇到的各種問(wèn)題、考生必備技能、相關(guān)推薦書(shū)籍等,需要的朋友可以參考下2019-12-17機(jī)器學(xué)習(xí)常見(jiàn)面試題與參考答案總結(jié)
這篇文章主要介紹了機(jī)器學(xué)習(xí)常見(jiàn)面試題與參考答案,總結(jié)整理了機(jī)器學(xué)習(xí)面試中常見(jiàn)的各種知識(shí)點(diǎn)以及相關(guān)問(wèn)題參考答案,需要的朋友可以參考下2019-08-14- 這篇文章主要介紹了C++面試常見(jiàn)算法題與參考答案,總結(jié)分析了C++面試中遇到的常見(jiàn)算法題與相應(yīng)的參考答案,需要的朋友可以參考下2019-11-20
- 這篇文章主要介紹了算法工程師面試常見(jiàn)問(wèn)題,總結(jié)分析了算法工程師面試過(guò)程中比較常見(jiàn)的各類(lèi)知識(shí)點(diǎn)與常見(jiàn)問(wèn)題,需要的朋友可以參考下2019-11-11
- 這篇文章主要介紹了騰訊面試算法題之編碼問(wèn)題,結(jié)合具體案例形式分析了基于java的編碼轉(zhuǎn)換相關(guān)算法原理與操作技巧,需要的朋友可以參考下2019-10-08
- 這篇文章主要介紹了聊一聊前端算法面試(遞歸),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-09-25
- 這篇文章主要介紹了百度面試算法題目與參考答案,總結(jié)分析了位圖、排序、鏈表、二叉樹(shù)等操作的原理與相關(guān)實(shí)現(xiàn)技巧,需要的朋友可以參考下2019-09-06
- 這篇文章主要介紹了華為筆試算法面試題與參考答案,結(jié)合實(shí)例形式分析了基于C++的字符串轉(zhuǎn)換、判斷、排序等算法相關(guān)操作技巧,需要的朋友可以參考下2019-09-05
拼多多后臺(tái)開(kāi)發(fā)實(shí)習(xí)生面試經(jīng)歷總結(jié)
這篇文章主要介紹了拼多多后臺(tái)開(kāi)發(fā)實(shí)習(xí)生面試經(jīng)歷,總結(jié)分析了拼多多后臺(tái)開(kāi)發(fā)實(shí)習(xí)生三輪面試中經(jīng)歷的各種問(wèn)題,以及面試的相關(guān)經(jīng)驗(yàn),需要的朋友可以參考下2019-12-20- 這篇文章主要介紹了阿里面試經(jīng)歷,總結(jié)分析了阿里面試中四輪面試的經(jīng)驗(yàn)與第四輪失敗的教訓(xùn),具有一定參考借鑒價(jià)值,需要的朋友可以參考下2019-12-19