本就不能wwW78umCoM登入qts 进行基本配置了,还可以继续78um收视的

&figure&&img src=&https://pic4.zhimg.com/v2-61ada0ec42a5fb3df26d938_b.jpg& data-rawwidth=&580& data-rawheight=&309& class=&origin_image zh-lightbox-thumb& width=&580& data-original=&https://pic4.zhimg.com/v2-61ada0ec42a5fb3df26d938_r.jpg&&&/figure&机器学习无疑是当前数据分析领域的一个热点内容。很多人在平时的工作中都或多或少会用到机器学习的算法。这里IT经理网为您总结一下常见的机器学习算法,以供您在工作和学习中参考。&br&机器学习的算法很多。很多时候困惑人们都是,很多算法是一类算法,而有些算法又是从其他算法中延伸出来的。这里,我们从两个方面来给大家介绍,第一个方面是学习的方式,第二个方面是算法的类似性。 &br&&br&&h2&&b&学习方式 &/b&&/h2&根据数据类型的不同,对一个问题的建模有不同的方式。在机器学习或者人工智能领域,人们首先会考虑算法的学习方式。在机器学习领域,有几种主要的学习方式。将算法按照学习方式分类是一个不错的想法,这样可以让人们在建模和算法选择的时候考虑能根据输入数据来选择最合适的算法来获得最好的结果。 &br&&br&&b&监督式学习:&figure&&img src=&https://pic3.zhimg.com/v2-05f6b180f6f822fa4a5e6_b.jpg& data-rawwidth=&300& data-rawheight=&239& class=&content_image& width=&300&&&/figure&&/b&在监督式学习下,输入数据被称为“训练数据”,每组训练数据有一个明确的标识或结果,如对防垃圾邮件系统中“垃圾邮件”“非垃圾邮件”,对手写数字识别中的“1“,”2“,”3“,”4“等。在建立预测模型的时候,监督式学习建立一个学习过程,将预测结果与“训练数据”的实际结果进行比较,不断的调整预测模型,直到模型的预测结果达到一个预期的准确率。监督式学习的常见应用场景如分类问题和回归问题。常见算法有逻辑回归(Logistic Regression)和反向传递神经网络(Back Propagation Neural Network)&br&&br&&b&非监督式学习: &figure&&img src=&https://pic4.zhimg.com/v2-e93f45f8f0_b.jpg& data-rawwidth=&300& data-rawheight=&225& class=&content_image& width=&300&&&/figure&&/b&&p&在非监督式学习中,数据并不被特别标识,学习模型是为了推断出数据的一些内在结构。常见的应用场景包括关联规则的学习以及聚类等。常见算法包括Apriori算法以及k-Means算法。 &br&&br&半监督式学习:&figure&&img src=&https://pic2.zhimg.com/v2-768ef0509f35ceea05b8cd5a4de715c3_b.jpg& data-rawwidth=&300& data-rawheight=&200& class=&content_image& width=&300&&&/figure&&a href=&https://link.zhihu.com/?target=http%3A//www.ctocio.com/hotnews/15919.html/attachment/semisupercrescent_plot& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&ctocio.com/hotnews/1591&/span&&span class=&invisible&&9.html/attachment/semisupercrescent_plot&/span&&span class=&ellipsis&&&/span&&/a&&a href=&https://link.zhihu.com/?target=http%3A//www.ctocio.com/hotnews/15919.html/attachment/semisupercrescent_plot& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&ctocio.com/hotnews/1591&/span&&span class=&invisible&&9.html/attachment/semisupercrescent_plot&/span&&span class=&ellipsis&&&/span&&/a&&a href=&https://link.zhihu.com/?target=http%3A//www.ctocio.com/hotnews/15919.html/attachment/semisupercrescent_plot& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&在此学习方式下,输入数据部分被标识,部分没有被标识,这种学习模型可以用来进行预测,但是模型首先需要学习数据的内在结构以便合理的组织数据来进行预测。应用场景包括分类和回归,算法包括一些对常用监督式学习算法的延伸,这些算法首先试图对未标识数据进行建模,在此基础上再对标识的数据进行预测。如图论推理算法(Graph Inference)或者拉普拉斯支持向量机(Laplacian SVM.)等。&/a&&/p&&a href=&https://link.zhihu.com/?target=http%3A//www.ctocio.com/hotnews/15919.html/attachment/semisupercrescent_plot& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&强化学习: &/a&&figure&&img src=&https://pic2.zhimg.com/v2-d9da3a8ae1bb99d0ca94edae_b.jpg& data-rawwidth=&300& data-rawheight=&176& class=&content_image& width=&300&&&/figure&&a href=&https://link.zhihu.com/?target=http%3A//www.ctocio.com/hotnews/15919.html/attachment/reinforement-learning& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&ctocio.com/hotnews/1591&/span&&span class=&invisible&&9.html/attachment/reinforement-learning&/span&&span class=&ellipsis&&&/span&&/a&&a href=&https://link.zhihu.com/?target=http%3A//www.ctocio.com/hotnews/15919.html/attachment/reinforement-learning& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&ctocio.com/hotnews/1591&/span&&span class=&invisible&&9.html/attachment/reinforement-learning&/span&&span class=&ellipsis&&&/span&&/a&&p&在这种学习模式下,输入数据作为对模型的反馈,不像监督模型那样,输入数据仅仅是作为一个检查模型对错的方式,在强化学习下,输入数据直接反馈到模型,模型必须对此立刻作出调整。常见的应用场景包括动态系统以及机器人控制等。常见算法包括Q-Learning以及时间差学习(Temporal difference learning) &/p&&p&
在企业数据应用的场景下, 人们最常用的可能就是监督式学习和非监督式学习的模型。 在图像识别等领域,由于存在大量的非标识的数据和少量的可标识数据, 目前半监督式学习是一个很热的话题。 而强化学习更多的应用在机器人控制及其他需要进行系统控制的领&br&&/p&&h2&&b&算法类似性&/b&&/h2&根据算法的功能和形式的类似性,我们可以把算法分类,比如说基于树的算法,基于神经网络的算法等等。当然,机器学习的范围非常庞大,有些算法很难明确归类到某一类。而对于有些分类来说,同一分类的算法可以针对不同类型的问题。这里,我们尽量把常用的算法按照最容易理解的方式进行分类。 &br&&br&回归算法: &figure&&img src=&https://pic3.zhimg.com/v2-fed0db4f2e4_b.jpg& data-rawwidth=&241& data-rawheight=&209& class=&content_image& width=&241&&&/figure&&a href=&https://link.zhihu.com/?target=http%3A//www.ctocio.com/hotnews/15919.html/attachment/regression& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&ctocio.com/hotnews/1591&/span&&span class=&invisible&&9.html/attachment/regression&/span&&span class=&ellipsis&&&/span&&/a&回归算法是试图采用对误差的衡量来探索变量之间的关系的一类算法。回归算法是统计机器学习的利器。在机器学习领域,人们说起回归,有时候是指一类问题,有时候是指一类算法,这一点常常会使初学者有所困惑。常见的回归算法包括:最小二乘法(Ordinary Least Square),逻辑回归(Logistic Regression),逐步式回归(Stepwise Regression),多元自适应回归样条(Multivariate Adaptive Regression Splines)以及本地散点平滑估计(Locally Estimated Scatterplot Smoothing)&p&&b&基于实例的算法&figure&&img src=&https://pic1.zhimg.com/v2-359ea5a90e16af6ba5bc885a8be782ed_b.jpg& data-rawwidth=&205& data-rawheight=&188& class=&content_image& width=&205&&&/figure&&/b&&/p&&br&基于实例的算法常常用来对决策问题建立模型,这样的模型常常先选取一批样本数据,然后根据某些近似性把新数据与样本数据进行比较。通过这种方式来寻找最佳的匹配。因此,基于实例的算法常常也被称为“赢家通吃”学习或者“基于记忆的学习”。常见的算法包括 k-Nearest Neighbor(KNN), 学习矢量量化(Learning Vector Quantization, LVQ),以及自组织映射算法(Self-Organizing Map , SOM) &p&&b&正则化方法 &/b&&figure&&img src=&https://pic3.zhimg.com/v2-a6e5de9e7d331d2a5ef0e6_b.jpg& data-rawwidth=&300& data-rawheight=&225& class=&content_image& width=&300&&&/figure&&a href=&https://link.zhihu.com/?target=http%3A//www.ctocio.com/hotnews/15919.html/attachment/linregpolyvsregdemo_12& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&ctocio.com/hotnews/1591&/span&&span class=&invisible&&9.html/attachment/linregpolyvsregdemo_12&/span&&span class=&ellipsis&&&/span&&/a&&a href=&https://link.zhihu.com/?target=http%3A//www.ctocio.com/hotnews/15919.html/attachment/linregpolyvsregdemo_12& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&正则化方法是其他算法(通常是回归算法)的延伸,根据算法的复杂度对算法进行调整。正则化方法通常对简单模型予以奖励而对复杂算法予以惩罚。常见的算法包括:Ridge Regression, Least Absolute Shrinkage and Selection Operator(LASSO),以及弹性网络(Elastic Net)。 &/a& &br&&br&&b&决策树学习&figure&&img src=&https://pic1.zhimg.com/v2-7babcdba780b0099a22ff_b.jpg& data-rawwidth=&300& data-rawheight=&189& class=&content_image& width=&300&&&/figure&&/b&决策树算法根据数据的属性采用树状结构建立决策模型, 决策树模型常常用来解决分类和回归问题。常见的算法包括:分类及回归树(Classification And Regression Tree, CART), ID3 (Iterative Dichotomiser 3), C4.5, Chi-squared Automatic Interaction Detection(CHAID), Decision Stump, 随机森林(Random Forest), 多元自适应回归样条(MARS)以及梯度推进机(Gradient Boosting Machine, GBM) &br&&br&&b&贝叶斯方法 &/b&&figure&&img src=&https://pic4.zhimg.com/v2-0104711cad45be543e4dcdb29f63bc56_b.jpg& data-rawwidth=&300& data-rawheight=&229& class=&content_image& width=&300&&&/figure&贝叶斯方法算法是基于贝叶斯定理的一类算法,主要用来解决分类和回归问题。常见算法包括:朴素贝叶斯算法,平均单依赖估计(Averaged One-Dependence Estimators, AODE),以及Bayesian Belief Network(BBN)。 &br&&br&&b&基于核的算法 &figure&&img src=&https://pic1.zhimg.com/v2-0c502bfeacdf5a_b.jpg& data-rawwidth=&300& data-rawheight=&238& class=&content_image& width=&300&&&/figure&&/b& &a href=&https://link.zhihu.com/?target=http%3A//www.ctocio.com/hotnews/15919.html/attachment/svm& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&基于核的算法中最著名的莫过于支持向量机(SVM)了。 基于核的算法把输入数据映射到一个高阶的向量空间, 在这些高阶向量空间里, 有些分类或者回归问题能够更容易的解决。 常见的基于核的算法包括:支持向量机(Support Vector Machine, SVM), 径向基函数(Radial Basis Function ,RBF), 以及线性判别分析(Linear Discriminate Analysis ,LDA)等 &/a&&br&&br&&b&聚类算法 &figure&&img src=&https://pic3.zhimg.com/v2-4d824fc6db796b2eb7d0e2d01fba7273_b.jpg& data-rawwidth=&320& data-rawheight=&241& class=&content_image& width=&320&&&/figure&&/b& &a href=&https://link.zhihu.com/?target=http%3A//www.ctocio.com/hotnews/15919.html/attachment/kmeans3& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&聚类,就像回归一样,有时候人们描述的是一类问题,有时候描述的是一类算法。聚类算法通常按照中心点或者分层的方式对输入数据进行归并。所以的聚类算法都试图找到数据的内在结构,以便按照最大的共同点将数据进行归类。常见的聚类算法包括 k-Means算法以及期望最大化算法(Expectation Maximization, EM)。 &/a&&br&&br&&b&关联规则学习 &figure&&img src=&https://pic1.zhimg.com/v2-6cd641bceda194c79fc4_b.jpg& data-rawwidth=&305& data-rawheight=&165& class=&content_image& width=&305&&&/figure&&/b& &a href=&https://link.zhihu.com/?target=http%3A//www.ctocio.com/hotnews/15919.html/attachment/associative-rule& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&ctocio.com/hotnews/1591&/span&&span class=&invisible&&9.html/attachment/associative-rule&/span&&span class=&ellipsis&&&/span&&/a&关联规则学习通过寻找最能够解释数据变量之间关系的规则,来找出大量多元数据集中有用的关联规则。常见算法包括 Apriori算法和Eclat算法等。 &br&&br&&b&人工神经网络 &figure&&img src=&https://pic1.zhimg.com/v2-0f16fc8afda5fe87fdaca08_b.jpg& data-rawwidth=&300& data-rawheight=&240& class=&content_image& width=&300&&&/figure&&/b&人工神经网络算法模拟生物神经网络,是一类模式匹配算法。通常用于解决分类和回归问题。人工神经网络是机器学习的一个庞大的分支,有几百种不同的算法。(其中深度学习就是其中的一类算法,我们会单独讨论),重要的人工神经网络算法包括:感知器神经网络(Perceptron Neural Network), 反向传递(Back Propagation), Hopfield网络,自组织映射(Self-Organizing Map, SOM)。学习矢量量化(Learning Vector Quantization, LVQ) &br&&br&&br&&br&&b&深度学习 &/b&&figure&&img src=&https://pic4.zhimg.com/v2-dac2af2c55be36f0a006e8_b.jpg& data-rawwidth=&300& data-rawheight=&153& class=&content_image& width=&300&&&/figure&深度学习算法是对人工神经网络的发展。 在近期赢得了很多关注, 特别是&a href=&https://link.zhihu.com/?target=http%3A//www.ctocio.com/ccnews/15615.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&百度也开始发力深度学习后&/a&, 更是在国内引起了很多关注。 在计算能力变得日益廉价的今天,深度学习试图建立大得多也复杂得多的神经网络。很多深度学习的算法是半监督式学习算法,用来处理存在少量未标识数据的大数据集。常见的深度学习算法包括:受限波尔兹曼机(Restricted Boltzmann Machine, RBN), Deep Belief Networks(DBN),卷积网络(Convolutional Network), 堆栈式自动编码器(Stacked Auto-encoders)。 &br&&br&&b&降低维度算法&/b& &figure&&img src=&https://pic3.zhimg.com/v2-0deaa220bc8ea68_b.jpg& data-rawwidth=&300& data-rawheight=&284& class=&content_image& width=&300&&&/figure&&a href=&https://link.zhihu.com/?target=http%3A//www.ctocio.com/hotnews/15919.html/attachment/pca& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&ctocio.com/hotnews/1591&/span&&span class=&invisible&&9.html/attachment/pca&/span&&span class=&ellipsis&&&/span&&/a&像聚类算法一样,降低维度算法试图分析数据的内在结构,不过降低维度算法是以非监督学习的方式试图利用较少的信息来归纳或者解释数据。这类算法可以用于高维数据的可视化或者用来简化数据以便监督式学习使用。常见的算法包括:主成份分析(Principle Component Analysis, PCA),偏最小二乘回归(Partial Least Square Regression,PLS), Sammon映射,多维尺度(Multi-Dimensional Scaling, MDS), 投影追踪(Projection Pursuit)等。 &br&&/p&&h2&集成算法:&figure&&img src=&https://pic1.zhimg.com/v2-36d5dd19ecac744e9ae98_b.jpg& data-rawwidth=&300& data-rawheight=&182& class=&content_image& width=&300&&&/figure&&/h2&&a href=&https://link.zhihu.com/?target=http%3A//www.ctocio.com/hotnews/15919.html/attachment/rf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&ctocio.com/hotnews/1591&/span&&span class=&invisible&&9.html/attachment/rf&/span&&span class=&ellipsis&&&/span&&/a&集成算法用一些相对较弱的学习模型独立地就同样的样本进行训练,然后把结果整合起来进行整体预测。集成算法的主要难点在于究竟集成哪些独立的较弱的学习模型以及如何把学习结果整合起来。这是一类非常强大的算法,同时也非常流行。常见的算法包括:Boosting, Bootstrapped Aggregation(Bagging), AdaBoost,堆叠泛化(Stacked Generalization, Blending),梯度推进机(Gradient Boosting Machine, GBM),随机森林(Random Forest)。
机器学习无疑是当前数据分析领域的一个热点内容。很多人在平时的工作中都或多或少会用到机器学习的算法。这里IT经理网为您总结一下常见的机器学习算法,以供您在工作和学习中参考。 机器学习的算法很多。很多时候困惑人们都是,很多算法是一类算法,而有些…
&figure&&img src=&https://pic4.zhimg.com/v2-de223a2ad8d980dd74b43e3aec688862_b.jpg& data-rawwidth=&1345& data-rawheight=&618& class=&origin_image zh-lightbox-thumb& width=&1345& data-original=&https://pic4.zhimg.com/v2-de223a2ad8d980dd74b43e3aec688862_r.jpg&&&/figure&&p&本文以《&a href=&https://link.zhihu.com/?target=http%3A//www.csuldw.com//-choosing-a-machine-learning-classifier/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&机器学习算法比较&/a& 》此篇文章为基础,进行适当的补充,感谢原作者的创作。&/p&&h2&&b&偏差(Bias)和方差(Variance)&/b&&/h2&&p&&b&偏差:&/b&描述的是预测值(估计值)的期望E与真实值Y之间的差距。偏差越大,越偏离真实数据。&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=Bias%5Cleft%28+f%5Cleft%28+x+%5Cright%29+%5Cright%29+%3DE%5Cleft%28+f%5Cleft%28+x+%5Cright%29+%5Cright%29+-Y& alt=&Bias\left( f\left( x \right) \right) =E\left( f\left( x \right) \right) -Y& eeimg=&1&&&/p&&p&&b&方差:&/b&描述的是预测值P的变化范围,离散程度,也就是离其期望值E的距离。方差越大,数据的分布越分散。&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=Variance%28+f%28x%29+%29%3D+%5Cfrac%7B%5CSigma+%5Bf%28x%29-E%28f%28x%29%29%5D%5E%7B2%7D%7D%7BN%7D+& alt=&Variance( f(x) )= \frac{\Sigma [f(x)-E(f(x))]^{2}}{N} & eeimg=&1&&&/p&&p&&b&Error: &/b&模型的真实误差是两者之和.&/p&&p&&img src=&https://www.zhihu.com/equation?tex=Error%3DBias%5E%7B2%7D+%2BVariance& alt=&Error=Bias^{2} +Variance& eeimg=&1&&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-1326b8eac8efadb64f5e1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&600& data-rawheight=&567& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&https://pic1.zhimg.com/v2-1326b8eac8efadb64f5e1_r.jpg&&&/figure&&p&图片来源:&a href=&https://link.zhihu.com/?target=http%3A//scott.fortmann-roe.com/docs/BiasVariance.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Understanding the Bias-Variance Tradeoff&/a&&/p&&p&通常情况下,如果是小训练集,高偏差/低方差的分类器(例如,朴素贝叶斯NB)要比低偏差/高方差大分类的优势大(例如,KNN),因为后者会发生过拟合(overfiting)。然而,随着你训练集的增长,模型对于原数据的预测能力就越好,偏差就会降低,此时低偏差/高方差的分类器就会渐渐的表现其优势(因为它们有较低的渐近误差),而高偏差分类器这时已经不足以提供准确的模型了。&br&&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-b727d0cc389fe71ba031aaa654daffb9_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&505& data-rawheight=&313& class=&origin_image zh-lightbox-thumb& width=&505& data-original=&https://pic3.zhimg.com/v2-b727d0cc389fe71ba031aaa654daffb9_r.jpg&&&/figure&&p&&br&&/p&&p&如上图所示:当模型复杂度(Model Complexity)上升时,偏差会逐渐降低,方差会增大,真实误差也会增加
&/p&&p&&br&&/p&&p&&br&&/p&&h2&&b&常见算法的优缺点&/b&&/h2&&ol&&li&&b&朴素贝叶斯(Naive Bayes)&/b&&/li&&/ol&&p&&br&&/p&&p&朴素贝叶斯法是基于&b&贝叶斯定理&/b&与&b&特征条件独立假设&/b&的分类方法。对于给定的训练数据集,首先基于特征条件独立假设学习输入/输出的联合概率分布;然后基于此模型,对给定的输入&img src=&https://www.zhihu.com/equation?tex=x& alt=&x& eeimg=&1&&,利用贝叶斯定理求出后验概率最大的输出&img src=&https://www.zhihu.com/equation?tex=y& alt=&y& eeimg=&1&&。如果注有&b&条件独立性假设&/b&(一个比较严格的条件),朴素贝叶斯分类器的收敛速度将快于判别模型,比如逻辑回归,所以你只需要较少的训练数据即可。即使NB条件独立假设不成立,NB分类器在实践中仍然表现的很出色。它的主要缺点是它不能学习特征间的相互作用。引用一个比较经典的例子,比如,虽然你喜欢Brad Pitt和Tom Cruise的电影,但是它不能学习出你不喜欢他们在一起演的电影。&/p&&p&&b&优点:&/b&&/p&&ul&&li&朴素贝叶斯模型发源于古典数学理论,有着坚实的数学基础,以及稳定的分类效率。&/li&&li&对小规模的数据表现很好,能个处理多分类任务,适合增量式训练;&/li&&li&面对孤立的噪声点,朴素贝叶斯分类器是健壮的。通过在建模和分类时忽略样例,NB对缺失数据不太敏感,算法也比较简单,常用于文本分类。&/li&&li&面对无关属性,NB是健壮的。如果&img src=&https://www.zhihu.com/equation?tex=X_%7Bi%7D+& alt=&X_{i} & eeimg=&1&&是无关属性,那么&img src=&https://www.zhihu.com/equation?tex=P%28X_%7Bi%7D%7CY%29+& alt=&P(X_{i}|Y) & eeimg=&1&&几乎变成了均匀分布。&img src=&https://www.zhihu.com/equation?tex=X_%7Bi%7D+& alt=&X_{i} & eeimg=&1&&的类条件概率不会对总的后验概率的计算产生影响&/li&&/ul&&p&&br&&/p&&p&&b&缺点:&/b&&/p&&ul&&li&需要计算先验概率;&/li&&li&分类决策存在错误率;&/li&&li&对输入数据的表达形式很敏感。&/li&&li&输入变量必须都是条件独立的,如果假设它们之间存在概率依存关系,模型就变成了贝叶斯网;相关属性可能会降低朴素贝叶斯分类器的性能&/li&&/ul&&p&&br&&/p&&p&&br&&/p&&p&&b&2. 逻辑回归(Logistic Regression)&/b&&/p&&p&逻辑回归属于判别式模型,同时伴有很多模型正则化的方法(L0, L1,L2,etc),而且你不必像在用朴素贝叶斯那样担心你的特征是否相关。与决策树、SVM相比,你还会得到一个不错的概率解释,你甚至可以轻松地利用新数据来更新模型(使用在线梯度下降算法-online gradient descent)。如果你需要一个概率架构(比如,简单地调节分类阈值,指明不确定性,或者是要获得置信区间),或者你希望以后将更多的训练数据快速整合到模型中去,那么使用它吧。&br&&/p&&p&&b&Sigmoid函数:&img src=&https://www.zhihu.com/equation?tex=f%28x%29+%3D+%5Cfrac%7B1%7D%7B1%2Be%5E%7B-x%7D+%7D+& alt=&f(x) = \frac{1}{1+e^{-x} } & eeimg=&1&&&/b&&/p&&p&&b&Sigmoid的导数:&img src=&https://www.zhihu.com/equation?tex=f%27%28x%29+%3D+f%28x%29%281-f%28x%29%29& alt=&f'(x) = f(x)(1-f(x))& eeimg=&1&&&/b&&/p&&p&&b&优点:&/b&&/p&&ul&&li&实现简单,广泛的应用于工业问题上;&/li&&li&分类时计算量非常小,速度很快,存储资源低;&/li&&li&便利的观测样本概率分数;&/li&&li&对逻辑回归而言,多重共线性并不是问题,它可以结合L2正则化来解决该问题;&/li&&/ul&&p&&b&缺点:&/b&&/p&&ul&&li&当特征空间很大时,逻辑回归的性能不是很好;&/li&&li&容易欠拟合,一般准确度不太高&/li&&li&不能很好地处理大量多类特征或变量;&/li&&li&只能处理两分类问题(在此基础上衍生出来的softmax可以用于多分类),且必须&b&线性可分&/b&;&/li&&li&对于非线性特征,需要进行转换&/li&&/ul&&p&&br&&/p&&p&&br&&/p&&p&&b&3. 线性回归&/b&&/p&&p&线性回归是用于回归的,它不像Logistic回归那样用于分类,其基本思想是用&b&梯度下降法&/b&对最&b&小二乘法形式&/b&的误差函数进行优化&/p&&p&在 线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧氏距离之和最短&/p&&p&&img src=&https://www.zhihu.com/equation?tex=w+& alt=&w & eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=b& alt=&b& eeimg=&1&&最优解的闭式解:&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=w%3D%5Cfrac%7B%5Csum_%7Bi%3D1%7D%5E%7Bm%7D%7By_%7Bi%7D%28x_%7Bi%7D-%5Cbar%7Bx%7D+%29+%7D+%7D%7B%5Csum_%7Bi%3D1%7D%5E%7Bm%7D%7Bx_%7Bi%7D%5E%7B2%7D+%7D-%5Cfrac%7B1%7D%7Bm%7D%28%5Csum_%7Bi%3D1%7D%5E%7Bm%7D%7Bx_%7Bi%7D+%7D+%29%5E%7Bb%7D+%7D+& alt=&w=\frac{\sum_{i=1}^{m}{y_{i}(x_{i}-\bar{x} ) } }{\sum_{i=1}^{m}{x_{i}^{2} }-\frac{1}{m}(\sum_{i=1}^{m}{x_{i} } )^{b} } & eeimg=&1&&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=b%3D%5Cfrac%7B1%7D%7Bm%7D%5Csum_%7Bi%3D1%7D%5E%7Bm%7D%7B%28y_%7Bi%7D-wx_%7Bi%7D+%29%7D+& alt=&b=\frac{1}{m}\sum_{i=1}^{m}{(y_{i}-wx_{i} )} & eeimg=&1&&&/p&&p&&b&优点&/b&: 实现理解简单,计算简单;&br&&b&缺点&/b&: 不能拟合非线性数据.&br&&/p&&p&&br&&/p&&p&&br&&/p&&p&&b&4. 最近邻算法(KNN)&/b&&/p&&p&其主要过程为:&/p&&blockquote&1. 计算训练样本和测试样本中每个样本点的距离(常见的距离度量有欧式距离,马氏距离等);&br&2. 对上面所有的距离值进行排序(升序);&br&3. 选前k个最小距离的样本;&br&4. 根据这k个样本的标签进行投票,得到最后的分类类别;&/blockquote&&p&KNN算法&/p&&p&1:令&img src=&https://www.zhihu.com/equation?tex=k& alt=&k& eeimg=&1&&是最近邻数目,&img src=&https://www.zhihu.com/equation?tex=D& alt=&D& eeimg=&1&&是训练样例的集合&/p&&p&2:&img src=&https://www.zhihu.com/equation?tex=for& alt=&for& eeimg=&1&& 每个测试样例 &img src=&https://www.zhihu.com/equation?tex=z+%3D+%28x%27%2Cy%27%29+& alt=&z = (x',y') & eeimg=&1&&&img src=&https://www.zhihu.com/equation?tex=do& alt=&do& eeimg=&1&&&/p&&p&3:
计算&img src=&https://www.zhihu.com/equation?tex=z& alt=&z& eeimg=&1&&和每个样例&img src=&https://www.zhihu.com/equation?tex=%28x%2Cy%29%5Cin+D& alt=&(x,y)\in D& eeimg=&1&& 之间的距离&img src=&https://www.zhihu.com/equation?tex=d%28x%27%2Cx%29& alt=&d(x',x)& eeimg=&1&&&/p&&p&4:
选择离&img src=&https://www.zhihu.com/equation?tex=z& alt=&z& eeimg=&1&&最近的&img src=&https://www.zhihu.com/equation?tex=k& alt=&k& eeimg=&1&&个训练样例的集合&img src=&https://www.zhihu.com/equation?tex=D_%7Bz%5C+%7D+%5Csubseteq+D& alt=&D_{z\ } \subseteq D& eeimg=&1&&&/p&&p&5:
&img src=&https://www.zhihu.com/equation?tex=y%27%3Dargmax%5Csum_%7B%28x_%7Bi%7D%2Cy_%7Bi%7D%29%5Cin+D_%7Bz%7D+%7D%5E%7B%7D%7BI%28v%3Dy_%7Bi%7D+%7D+%29& alt=&y'=argmax\sum_{(x_{i},y_{i})\in D_{z} }^{}{I(v=y_{i} } )& eeimg=&1&&&/p&&p&6: &img src=&https://www.zhihu.com/equation?tex=end& alt=&end& eeimg=&1&&&img src=&https://www.zhihu.com/equation?tex=for& alt=&for& eeimg=&1&&&/p&&p&&b&优点:&/b&&/p&&ul&&li&理论成熟,思想简单,既可以用来做分类也可以用来做回归;&/li&&li&可用于非线性分类,可以生成任意形状的决策边界;&/li&&li&训练时间复杂度为O(n),因为是消极的学习方法不需要建立模型;&/li&&li&对数据没有假设,准确度高,对outlier不敏感;&/li&&li&基于局部信息进行预测,正因为这样而局部分类决策,KNN(k很小时)对噪声非常敏感&/li&&/ul&&p&&b&缺点:&/b&&/p&&ul&&li&计算量大(体现在距离计算上),因为需要逐个计算测试样例和训练样例之间的而相似度;&/li&&li&样本不平衡问题(即有些类别的样本数量很多,而其它样本的数量很少)效果差;&/li&&li&需要大量内存;&/li&&li&除非采用适当的邻近性度量k和数据预处理,否则最近邻分类器可能做出错误的预测&/li&&/ul&&p&&br&&/p&&p&&br&&/p&&p&&b&5. 决策树(Decision Tree)&/b&&/p&&p&决策树的一大优势就是易于解释。它可以毫无压力地处理特征间的交互关系并且是非参数化的,因此你不必担心异常值或者数据是否线性可分(举个例子,决策树能轻松处理好类别A在某个特征维度x的末端,类别B在中间,然后类别A又出现在特征维度x前端的情况)。它的缺点之一就是不支持在线学习,于是在新样本到来后,决策树需要全部重建。另一个缺点就是容易出现过拟合,但这也就是诸如随机森林RF(或提升树boosted tree)之类的集成方法的切入点。另外,随机森林经常是很多分类问题的赢家(通常比支持向量机好上那么一丁点),它训练快速并且可调,同时你无须担心要像支持向量机那样调一大堆参数,所以在以前都一直很受欢迎。&br&&/p&&p&信息熵计算公式:&/p&&p&&img src=&https://www.zhihu.com/equation?tex=ENTOROPY%3D-%5Csum_%7Bv%7D%5E%7B%7D%7Bp%28v%29log_%7B2%7Dp%28v%29+%7D+& alt=&ENTOROPY=-\sum_{v}^{}{p(v)log_{2}p(v) } & eeimg=&1&&&/p&&p&熵是衡量信息的混乱程度,变量的不确定性越大,熵也就越大,区间范围(0,1)&/p&&p&ID3算法:&/p&&p&信息增益:通过挑选特定属性获取的信息量,划分后熵的变化&/p&&p&&img src=&https://www.zhihu.com/equation?tex=GAN%28S%2CA%29%3DENTROPY%28S%29-%5Csum_%7Bv%7D%5E%7B%7D%7B%5Cfrac%7B%5Cleft%7C+S_%7Bv%7D+%5Cright%7C+%7D%7B%5Cleft%7C+S+%5Cright%7C+%7DENTROPY%28S_%7Bv%7D%29+%7D+& alt=&GAN(S,A)=ENTROPY(S)-\sum_{v}^{}{\frac{\left| S_{v} \right| }{\left| S \right| }ENTROPY(S_{v}) } & eeimg=&1&&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=S& alt=&S& eeimg=&1&&:要查看的训练样本的集合
&img src=&https://www.zhihu.com/equation?tex=A& alt=&A& eeimg=&1&&:样本属性
&img src=&https://www.zhihu.com/equation?tex=v& alt=&v& eeimg=&1&&:&img src=&https://www.zhihu.com/equation?tex=v& alt=&v& eeimg=&1&&是&img src=&https://www.zhihu.com/equation?tex=A& alt=&A& eeimg=&1&&的其中一个属性&br&&/p&&p&&br&&/p&&p&&b&优点:&/b&&/p&&ul&&li&计算简单,易于理解,可解释性强;&/li&&li&比较适合处理有缺失属性的样本;&/li&&li&能够处理不相关的特征;&/li&&li&在相对短的时间内能够对大型数据源做出可行且效果良好的结果。&/li&&/ul&&p&&b&缺点:&/b&&/p&&ul&&li&容易发生过拟合(随机森林可以很大程度上减少过拟合),剪枝是解决决策树过拟合并缩小决策树的方法之一;&/li&&li&忽略了数据之间的相关性;&/li&&li&对于那些各类别样本数量不一致的数据,在决策树当中,信息增益的结果偏向于那些具有更多数值的特征(只要是使用了信息增益,都有这个缺点,如RF)。&/li&&/ul&&p&&br&&/p&&p&&br&&/p&&p&&b&6. 提升方法Adaboosting算法&/b&&/p&&p&提升方法基于这样一种思想:对于一个复杂任务来说,将多个专家的判断进行适当的综合所得出的判断,要比其中任何一个专家单独的判断要好。这实际上,就是“三个臭皮匠顶个诸葛亮”的道理。Adaboost是一种加和模型,每个模型都是基于上一次模型的错误率来建立的,过分关注分错的样本,而对正确分类的样本减少关注度,逐次迭代之后,可以得到一个相对较好的模型。数据挖掘课上熊辉教授强调在使用集成学习的两个关键前提:每个决策模型必须独立;每个决策模型足够聪明,个体模型的准确率需大于50% 。类比各国的民主制度,比如菲律宾等一些小国完全效仿西方的民主是不可行的,道理不言而喻。&/p&&p&&b&优点:&/b&&/p&&ul&&li&Adaboost是一种有很高精度的分类器。&/li&&li&可以使用各种方法构建子分类器,Adaboost算法提供的是框架。&/li&&li&当使用简单分类器时,计算出的结果是可以理解的,并且弱分类器的构造极其简单。&/li&&li&简单,不用做特征筛选。&/li&&li&不易发生overfitting。&/li&&/ul&&p&&b&缺点:&/b&&/p&&ul&&li&对outlier比较敏感&br&&/li&&/ul&&p&&br&&/p&&p&&br&&/p&&p&&b&7. 支持向量机(SVM)&/b&&/p&&p&SVM具有坚实的统计学理论基础,并在许多实际应用(如手写数字的识别,文本分类等)中展示出大有可为的实践效果。此外,SVM可以很好地应用于高维数据,避免了维度灾难问题。而且就算数据在原特征空间线性不可分,只要给个合适的核函数,它就能运行的很好。可惜内存消耗大,难以解释,运行和调参也有些烦人,而随机森林却刚好避开了这些缺点,比较实用。&/p&&p&&b&优点&/b&&/p&&ul&&li&可以解决高维问题,即大型特征空间;&/li&&li&能够处理非线性特征的相互作用;&/li&&li&无需依赖整个数据;&/li&&li&可以提高泛化能力;&/li&&/ul&&p&&b&缺点&/b&&/p&&ul&&li&当观测样本很多时,效率并不是很高,因为在大数据中,SVM时间复杂度为&img src=&https://www.zhihu.com/equation?tex=O%28n%5E%7B3%7D%29+& alt=&O(n^{3}) & eeimg=&1&&;&/li&&li&对非线性问题没有通用解决方案,有时候很难找到一个合适的核函数;&/li&&li&在噪声过多的情况下,SVM容易造成过拟合&/li&&li&类严重重叠时,SVM的表现也很差&/li&&li&对缺失数据敏感;&/li&&/ul&&p&&br&&/p&&p&对于核的选择也是有技巧的(libsvm中自带了四种核函数:线性核、多项式核、RBF以及sigmoid核),核函数必须满足Mercer条件:&/p&&ul&&li&如果样本数量小于特征数,那么就没必要选择非线性核,简单的使用线性核就可以了;&/li&&li&如果样本数量大于特征数目,这时可以使用非线性核,将样本映射到更高维度,一般可以得到更好的结果;&/li&&li&如果样本数目和特征数目相等,该情况可以使用非线性核,原理和第二种一样。&/li&&/ul&&p&对于第一种情况,也可以先对数据进行降维,然后使用非线性核,这也是一种方法&br&&/p&&p&&br&&/p&&p&&br&&/p&&p&&b&8. 人工神经网络&/b&&/p&&p&&b&优点:&/b&&/p&&ul&&li&分类的准确度高;&/li&&li&并行分布处理能力强,分布存储及学习能力强,&/li&&li&对噪声神经有较强的鲁棒性和容错能力,能充分逼近复杂的非线性关系;&/li&&li&具备联想记忆的功能。&/li&&li&ANN可以处理冗余特征,因为权值在训练过程中自动学习。冗余特征的权值非常小&/li&&li&测试样例分类时非常快&/li&&/ul&&p&&b&缺点:&/b&&/p&&ul&&li&神经网络需要大量的参数,如网络拓扑结构、权值和阈值的初始值;&/li&&li&不能观察之间的学习过程,输出结果难以解释,会影响到结果的可信度和可接受程度;&/li&&li&学习时间过长,特别是当隐藏结点数量很大时,甚至可能达不到学习的目的。&/li&&li&ANN权值学习使用的梯度下降方法经常会收敛到局部最优解。避免局部最优解的方法: 在权值更新公式中加上一个冲量(momentum term);使用高价的导数;随机优化思想&/li&&/ul&&p&&br&&/p&&p&&br&&/p&&p&&b&算法选择的建议:&/b&&/p&&ol&&li&首当其冲应该选择的就是逻辑回归,如果它的效果不怎么样,那么可以将它的结果作为基准来参考,在基础上与其他算法进行比较;&/li&&li&然后试试决策树(随机森林)看看是否可以大幅度提升你的模型性能。即便最后你并没有把它当做为最终模型,你也可以使用随机森林来移除噪声变量,做特征选择;&/li&&li&如果特征的数量和观测样本特别多,那么当资源和时间充足时(这个前提很重要),使用SVM不失为一种选择&/li&&/ol&&p&&br&&/p&&p&&b&总结&/b&&/p&&p&算法对于数据挖掘固然很重要,但数据的质量直接决定了模型的质量,选择优良的特征对模型的健壮性大有裨益。认识数据、清洗数据是在建模之前最为重要也是最耗时的工作。不然很容易出现:&b&Garbage In , Garbage Out&/b&&/p&&p&&br&&/p&&p&&br&&/p&&p&参考文献:&/p&&p&&a href=&https://link.zhihu.com/?target=http%3A//www.csuldw.com//-choosing-a-machine-learning-classifier/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&机器学习算法比较&/a& &/p&&p&《统计学习方法》-----李航 著&/p&&p&《Introduction to Data Mining》---- Pang-Ning Tan , Michael Steinbach, Vipin Kumar著&/p&&p&《机器学习》----周志华 著&/p&&p&&a href=&https://link.zhihu.com/?target=http%3A//blog.echen.me//choosing-a-machine-learning-classifier/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Choosing a Machine Learning Classifier&/a&&/p&
本文以《 》此篇文章为基础,进行适当的补充,感谢原作者的创作。偏差(Bias)和方差(Variance)偏差:描述的是预测值(估计值)的期望E与真实值Y之间的差距。偏差越大,越偏离真实数据。 Bias\left( f\left( x \right) \right) =E\left( …
&p&大三暑假拿到的某厂数据挖掘实习,针对机器学习领域相关实习,我总结了以下四点(按重要性排序)&/p&&h2&1. 机器学习基础&/h2&&p&掌握常见的机器学习模型,常见的模型可根据重要性及难度分为三个梯度,第一梯度是最基础最重要的模型,主要包括:&b&线性回归&/b&、&b&逻辑回归&/b&、&b&支持向量机&/b&(SVM)、KMeans、&b&决策树、朴素贝叶斯、PCA降维、神经网络。&/b&对于本科生找实习而言,能够熟练的掌握第一梯度足矣,但是注意&b&一定要深入理解算法原理&/b&,最好&b&能够在纸上推导出算法公式&/b&,或者能够&b&写出算法的核心代码;&/b&第二梯队是一些工程实践以及竞赛中常用的方法,可作为加强和补充来学习,主要包括:常见的&b&集成学习方法(随机森林&/b&、&b&GBDT、Adaboost),&/b&以及最近很火的&b&深度学习&/b&,对于这些算法,只要大概知道其原理以及适合的应用场景即可,不必要深究公式,建议在具体的项目或竞赛中使用这些算法,例如参加Kaggle,天池等竞赛。第三梯度的模型是一些针对具体岗位性质的算法,例如,如果你做的是&b&推荐系统&/b&,最好是学习一下基础的&b&协同过滤算法(Item-based、User_based),&/b&如果你做的是&b&自然语言处理&/b&,最好学一下&b&LDA&/b&、&b&词向量&/b&、&b&文本挖掘&/b&相关的算法。 当然,如果时间有限,掌握第一梯队的模型足够找实习了。&/p&&h2&2. 算法与数据结构基础。&/h2&&p&这个是所有程序员必须掌握的内容,机器学习也不例外,尤其是想去BAT等大公司,这关必过。面试的时候,肯定少不了算法题,这一块没有捷径可走,多刷刷oj就可以了。以下是我比较推荐的几本书以及oj。&/p&&p&书&/p&&ul&&li&《编程之美》&/li&&li&《剑指offer》&/li&&li&《程序员面试金典》&/li&&/ul&&p&OJ&/p&&ul&&li&leetcode: &a href=&//link.zhihu.com/?target=https%3A//oj.leetcode.com/problems/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Problems | LeetCode OJ&/a&&/li&&li&codility: &a href=&//link.zhihu.com/?target=https%3A//codility.com/programmers/lessons/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Take our free programming lessons&/a&&/li&&/ul&&h2&3. 实习经历或者项目经历。&/h2&&p&如果有相关经历或者项目的话,面试的时候你会很占优势。一方面,实习经历可以很好的作为你面试时候的谈资,因为大部分面试官会比较喜欢针对简历问问题(除了Google比较变态完全不看简历只考算法之外)。另一方面,参与真正的项目,才能让你更深入理解算法的原理,还能够提高你的工程时间能力,这无论是对你的面试,还是将来进入公司后的工作,都是有极大帮助的。&/p&&h2&4. 常用语言和工具&/h2&&p&例如Python,R,Spark,Hadoop等,工具会用即可,不必深究,面试的时候面试官也不会为难你。&/p&&p&&br&&/p&&p&PS:面试前,一定要看看前人的面经&/p&
大三暑假拿到的某厂数据挖掘实习,针对机器学习领域相关实习,我总结了以下四点(按重要性排序)1. 机器学习基础掌握常见的机器学习模型,常见的模型可根据重要性及难度分为三个梯度,第一梯度是最基础最重要的模型,主要包括:线性回归、逻辑回归、支持向…
&h2&1 电脑锁屏&/h2&&ul&&li&有些时候,需要暂时离开座位去处理其他事,可是电脑还有数据再跑。&/li&&li&关掉的话,数据就白跑了,不关的话,又不想让别人看到我电脑的资料。&/li&&li&那么就按住&b&windows键后,再按L键。&/b&&/li&&li&这样电脑就直接锁屏了,不用担心电脑的资料外泄。&br&&/li&&/ul&&figure&&img src=&https://pic3.zhimg.com/v2-ca805d0c1c3abeca2799ce_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&469& data-rawheight=&329& class=&origin_image zh-lightbox-thumb& width=&469& data-original=&https://pic3.zhimg.com/v2-ca805d0c1c3abeca2799ce_r.jpg&&&/figure&&p&&br&&/p&&h2&2 步骤记录器&/h2&&ul&&li&实验室来学弟了,老师让你带带,你把一些软件演示了好几次,他还是没学会,而你又没更多的时间再去手动演示。&/li&&li&这个时候,&b&步骤计步器&/b&就体现它的作用了。&/li&&li&&b&按下windows键+R,输入psr.exe回车,然后点击“开始记录”就可以了。&/b&&/li&&/ul&&figure&&img src=&https://pic2.zhimg.com/v2-fdee20d15d0de5d82a9f1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&614& data-rawheight=&166& class=&origin_image zh-lightbox-thumb& width=&614& data-original=&https://pic2.zhimg.com/v2-fdee20d15d0de5d82a9f1_r.jpg&&&/figure&&p&&br&&/p&&ul&&li&&b&它会记录下你做的所有操作,然后生成一个图文并茂的详细文档,单击停止记录后,会将详细记录文档保存到一个压缩文件中。&/b&&/li&&/ul&&figure&&img src=&https://pic1.zhimg.com/v2-1a10f1eaba50_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&271& data-rawheight=&163& class=&content_image& width=&271&&&/figure&&p&&br&&/p&&h2&3 快速显示桌面&/h2&&ul&&li&在实验室里,正高兴的开黑玩游戏的时候,老师突然闯进来了。&/li&&li&这时让他看到自己在玩游戏肯定不好,&b&游戏界面又没法一下子最小化,&/b&怎么办?&/li&&li&别紧张,直接&b&按下Windows键和D键&/b&,桌面出现了。&/li&&/ul&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-4cdd194a57c4dabf7b73ab_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&429& data-rawheight=&226& class=&origin_image zh-lightbox-thumb& width=&429& data-original=&https://pic4.zhimg.com/v2-4cdd194a57c4dabf7b73ab_r.jpg&&&/figure&&p&&br&&/p&&p&&br&&/p&&p&&br&&/p&&h2&4 屏幕放大镜&/h2&&ul&&li&有时出门忘记带眼镜了,电脑上的字太小,看不清怎么办?&/li&&li&别着急,教你使用窗口放大镜,立刻解决这一问题。&/li&&li&&b&按住windows键,然后使劲连续按加号键&/b&&/li&&li&屏幕就会变得很大,直到你满意为止。&br&&/li&&/ul&&figure&&img src=&https://pic1.zhimg.com/v2-507ebef0ac26af2f75e0a2fc_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&453& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/v2-507ebef0ac26af2f75e0a2fc_r.jpg&&&/figure&&p&&br&&/p&&ul&&li&然后&b&按住windows键,连续按减号键&/b&,屏幕又可以回到原来的样子。&/li&&/ul&&p&&br&&/p&&h2&5 新建文件夹&/h2&&ul&&li&通常新建文件夹都需要3个步骤,“&b&右键-&新建-&文件夹&/b&”,费时费力,效率太低了,那么怎么办呢?&/li&&li&&b&按住“Ctrl+Shift+N”键,立刻新建文件夹。&/b&&/li&&/ul&&figure&&img src=&https://pic4.zhimg.com/v2-28dc5d8de5f3_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&206& data-rawheight=&165& class=&content_image& width=&206&&&/figure&&p&&br&&/p&&p&&br&&/p&&p&&br&&/p&&h2&6 屏幕虚拟键盘&/h2&&ul&&li&有时突然急需要一台电脑操作文件,但发现它们的键盘居然是坏的。&b&稳住,别慌~&/b&&/li&&li&&b&这时候,用鼠标打开运行栏,输入osk,电脑自动会出现炫酷虚拟键盘!&/b&&/li&&/ul&&figure&&img src=&https://pic2.zhimg.com/v2-e2c06dbfabaf_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&250& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/v2-e2c06dbfabaf_r.jpg&&&/figure&&p&&br&&/p&&p&&br&&/p&&p&&br&&/p&&h2&7 关闭浏览器当前页面和当前文档&/h2&&ul&&li&浏览器打开了很多页面,用鼠标挨个去关太费劲,没关系,按&b&Ctrl+W&/b&键,快速帮你搞定。&/li&&li&打开的文档太多,找不到你想要的文档,拖慢电脑速度,买关系,按&b&Ctrl+W&/b&键,帮你关掉它。&br&&/li&&/ul&&figure&&img src=&https://pic3.zhimg.com/v2-7ba6a302b145ee228db2dfe_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&624& data-rawheight=&327& class=&origin_image zh-lightbox-thumb& width=&624& data-original=&https://pic3.zhimg.com/v2-7ba6a302b145ee228db2dfe_r.jpg&&&/figure&&p&&br&&/p&&p&&br&&/p&&h2&8 一次性快速设置&/h2&&ul&&li&如果有很多设置需要重新操作,比如调整显示器亮度、音量大小,打开无线网,还要看本本电池电量。&/li&&li&只需要按下&b&Windows键+X&/b&,一次性满足所有要求。&br&&/li&&/ul&&figure&&img src=&https://pic3.zhimg.com/v2-4bec98feae_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&315& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-4bec98feae_r.jpg&&&/figure&&p&&br&&/p&&p&&br&&/p&&p&&br&&/p&&h2&9 清除浏览器缓存刷新&/h2&&ul&&li&很多程序员在写网页的时候,明明源码已经改过来了,可是浏览器上显示的页面还是不多,这个时候你就得考虑是不是缓存的问题了。&/li&&li&&b&按住“Ctrl+F5”键,清缓存刷新,帮你解决因为缓存而带来的问题。&/b&&/li&&/ul&&p&&br&&/p&&h2&10 文档打印&/h2&&ul&&li&去打印店打印东西,打印店的小哥太忙没时间招呼你。&/li&&li&别急着,没有他,自己也能打印。&/li&&li&&b&按住“Ctrl+P”键,帮你打印文档。&/b&&/li&&/ul&&figure&&img src=&https://pic1.zhimg.com/v2-31d441ef69feaa639eca4_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&398& data-rawheight=&113& class=&content_image& width=&398&&&/figure&&p&&br&&/p&&p&&br&&/p&&blockquote&&b&在我的公众号【轮子工厂】后台回复关键字:&/b& &br&&b&1.回复【图书】:获取15本新手自学编程,零基础入门经典学习教材;&/b&&br&&b&2.回复【我要造轮子】:获取100多本我根据知乎上面关于计算机问题的高赞回答里面的介绍整理出来的书籍;&/b& &br&&b&3.回复【开发工具】:获取几大主流编程语言的开发工具~&/b& &br&&b&4.回复【ps教程】:获取ps视频免费教程;&/b&&br&&b&5.回复【早起】:每天早上7点准时叫你起床;&/b&&/blockquote&
1 电脑锁屏有些时候,需要暂时离开座位去处理其他事,可是电脑还有数据再跑。关掉的话,数据就白跑了,不关的话,又不想让别人看到我电脑的资料。那么就按住windows键后,再按L键。这样电脑就直接锁屏了,不用担心电脑的资料外泄。 2 步骤记录器实验室来学…
&p&我是一个从传统行业转行到数据挖掘的应届生,我从我的角度回答一下这个问题吧,希望能对其他的同学有帮助,不过毕竟是个人经历,有一定的局限性,还请大家以批判的眼光看待这篇回答。&/p&&br&&br&&b&1. 前言&/b&&br&&p&答主是2017应届毕业生,已签美团的数据挖掘岗,本次秋招一共投递了39份简历,做了19场笔试,面了12家公司,从一开始的完全不自信,到被折磨的要死但还是坚强的活下来,到最后的各种坦然,成长了许多。&/p&&br&&p&答主本硕均是机械专业,在校学习成绩中等偏上,原本想从事嵌入式方向的工作,无奈学了两个月被导师叫停,说没有项目学完就忘,遂作罢。研二上在没有目标的情况下系统的学习了C++和数据结构,入门了Python。研二下开始学习机器学习相关知识,从四月下旬开始出差给导师做无聊的项目,白天出去搬砖,晚上回来学习,暑假没回家继续学习(暑假其实就两周),直到八月底开始找工作。&/p&&br&&p&整个自学的过程一年左右,主要内容有计算机专业的基础知识,基础的机器学习知识,由于时间的原因,没有学hadoop和spark,这点确实是短板,各位如果有时间,最好能看看。&/p&&br&&br&&b&2. 基础知识自学&/b&&br&&p&面试的时候一般先问基础知识:编程语言,数据结构和算法,操作系统和网络编程(数据库相对而言问的比较少),前两部分非常重要!如果前两部分非常熟悉,后两部分稍微会一点都能过面试,但是前两部分只会一点或者不会,九成九会跪在一面。答主就是前两部分比较熟悉,后两部分背了背常见的面试题,所有的面试都走到了终面。&/p&&br&&br&2.1 编程语言&p&编程语言常问的是C/C++和Java,答主学的是C++。我首先把C语言圣经&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/subject/1139336/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&《C程序设计语言》&/a&详细的看了一遍,然后系统的看了&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/subject/1767741/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&《C++ Primer》&/a&(这本书已经出到第五版了),如果其他同学时间充裕的话,可以再把&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/subject/5387403/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&《Effective C++》&/a&看一下。&/p&&br&&p&此处说明一下,看书不是简单地“看”,而是不看书能手敲出书上的例子,能独自做课后题。在这个过程中,常常会发现自己写的代码和书上代码,参考答案的代码有一些不一样,重点分析不一样的部分,会有很大的收获。我常常用笔抄一些关键代码,然后在纸上画出一个章节的简单思维导图,默记一会,把纸扔掉,最后把没有记住的知识点总结在为知笔记中,每过一段时间复习一下。&/p&&br&&p&如果学的是C++,学完以后,要能回答下面的问题:内存怎么管理,const有什么用,引用和指针的区别,虚函数和纯虚函数,虚函数表,继承,重载和多态,模板函数,模板类,容器等相关知识。&/p&&br&&br&2.2 数据结构和算法&p&网上大多人推荐的是《算法导论》或者《数据结构与算法分析(C语言描述)》,《算法导论》确实是一本很牛逼的书,但是真的太难啃了,不适合“快速学习”,这里我推荐&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/subject//& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&《算法(第4版)》&/a&,这本书使用Java讲解常见的算法,但是完全木有关系,Java零基础的我看起来没有任何压力,因为该书几乎没有用到Java的任何特殊语法。&/p&&br&&p&仅仅看《算法(第4版)》是不够的,还需要&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/subject/6966465/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&《剑指offer》&/a&和&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/subject//& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&《程序员代码面试指南》&/a&,《剑指offer》一定要多看几遍,里面的题目真的被考烂了,被问到原题的概率很大。《程序员代码面试指南》属于提升书籍,里面按照专题把题目归类了,强烈建议把动态规划专题看一遍。&/p&&br&&p&如果只会算法而不能把代码写出来,也不行,锻炼这个能力只能靠OJ了。这里推荐去牛客网刷题,可以先刷《剑指offer》或者学习《直通BAT面试算法精讲课》,然后再刷leetcode专题,刷leetcode的时候可以按照网上推荐的顺序刷,非常舒服(第一次做的时候,可以先跳过hard,最后再做)。&/p&&br&&p&数据结构和算法常考的是堆,栈,排序,链表,二叉树和动态规划等,相关的问题多练练,面试的时候才能写得比较快。有句话这么说,考试并不是让考生在考场上把不会的题做出来,而是检查考生会什么,不会什么,仅此而已。面试的时候,如果反应快一点,能给面试官留下很好的印象。&/p&&br&&br&2.3 操作系统和网络编程&p&这里答主没怎么学,时间不够,看了几章&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/subject/5333562/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&《深入理解计算机系统》&/a&就看不下去,罪过。。。&/p&&br&&p&后来就去搜索常见的面试题:进程和线程的区别有哪些?进程/线程间如何通信?如何防止线程死锁?TCP三次握手四次挥手是个什么步骤?我把这些问题的答案背下来,等面试官问我的时候我再背出来,然后坦白自己没有学过操作系统和网络编程,这些都是我在网上找答案背的,再深一点我也不会了。一般情况下,面试官的表情会比较诧异,不过也就不再讨论这个话题了。&/p&&br&&p&这部分怎么学我不清楚,各位还是咨询计算机专业的同学或者看看别的答案吧。&/p&&br&&br&2.4 个人学习历程&p&答主花了半年时间(研二上)点了编程语言,数据结构和算法的技能点,顺道点了一些别的小技能点。这段时间主要看了《C++ Primer》,《算法(第4版)》,《Learn Python The Hard Way》,《鸟哥的Linux私房菜》,按照廖雪峰的教程把git学了一下,开始用markdown写博客。&/p&&br&&br&&b&3. 机器学习自学&/b&&p&今年的机器学习很火,稍微大一点的公司都招这个方面的人才,我的感觉大多人都是自学的,貌似本科开这个专业的学校很少?&/p&&br&&p&个人理解的机器学习主要有三个方向(按照岗位要求分):数据挖掘,自然语言处理和深度学习。数据挖掘主要是搜索排序,反作弊,个性化推荐,信用评价等;自然语言处理主要是分词,词性分析等;深度学习主要是语音和图像识别。&/p&&p&(此处经知友 &a data-hash=&eccddec777b89f576d51e8b5c0b9da7c& href=&//www.zhihu.com/people/eccddec777b89f576d51e8b5c0b9da7c& class=&member_mention& data-hovercard=&p$b$eccddec777b89f576d51e8b5c0b9da7c&&@吴文君&/a& 提醒,数据挖掘是一个较为宽泛的概念,包含机器学习,自然语言处理和深度学习,我在这里把概念搞混了,大家不要被我误导哈) &/p&&br&&p&我找的是数据挖掘方向,所以就说说这个方向的个人学习经验吧。&/p&&br&&p&主要准备两个方面,一方面是掌握常见机器学习算法原理,另一方面是应用这些算法并解决问题。&/p&&br&&br&3.1 常见机器学习算法&p&和大部分人一样,我是看吴恩达老师的《机器学习》视频入门的,看了两遍,说实话第一遍自己以为懂了,看第二遍的时候才发现第一遍的懂了是“假懂”,第一遍懂得就是皮毛。吴恩达的视频有两个版本,一个是网易公开课在教室讲课录制的版本,另一个是在自己办公室录制的版本,我看的是在办公室录制的版本,看了网易公开课版本的目录之后,个人感觉网易公开课的要难一点。&/p&&br&&p&看完视频以后,需要自己动手实践加深理解,这里我主要看《机器学习实战》和《统计学习方法》,前者全是实践没有理论,后者全是理论没有实践,所以结合起来学习非常棒。我主要按照《机器学习实战》的目录学,涉及到什么机器学习模型,就去《统计学习方法》中看该模型的数学推导及证明,然后把《机器学习实战》上的代码敲一遍,验证一遍。&/p&&br&&p&后来市面上出了一本很好的机器学习教材:周志华老师的《机器学习》。我现在的建议是主要按照《机器学习》的结构走,《机器学习实战》和《统计学习方法》作为辅助,《机器学习实战》有对应模型的代码就敲一遍,没有就算了;《统计学习方法》的证明一般比《机器学习》更深一点,有对应的证明就看,没有就算了。&/p&&br&&p&上面三本书吃透,基础就差不多了,但是面试的时候会发现,除了DT,LR,SVM问得比较多之外,随机森林和GBDT问的也非常多,以及参数如何调整,模型如何评价等等。这些东西只能求助于搜索引擎和论文了,暂时没有别的系统的学习方法。&/p&&br&&p&补充一下,推荐算法问的也比较多,把项亮的《推荐系统实践》好好看就行了。&/p&&br&&p&学完这个部分应该会的问题,我放在了最后,以免影响排版。&/p&&br&&br&3.2 应用这些算法并解决问题&p&在实际的工作中,硕士生其实大多是用算法而不是发明算法,所以还得学会怎么用算法解决实际问题。这里建议参加Kaggle的比赛,都是比较实际的问题,而且还有排名,面试的时候也有一定的说服力。&/p&&br&&p&这里主要学一些Python的包就行了,如numpy,pandas,matplotlib和sklearn等,推荐一本五星级好书:《利用Python进行数据分析》。&/p&&br&&p&这一部分关于特征处理的问题问的比较多,比如怎么选相关特征,如何清洗数据,以及选取什么样的机器学习模型。&/p&&br&&br&3.3 个人学习历程&p&机器学习部分答主也花了半年的时间学习(研二下),看了《机器学习实战》和《统计学习方法》,《机器学习》只看了几章,《利用Python进行数据分析》看了一大半,《推荐系统实践》看了一半。机器学习相关的东西得经常复习,尤其是推导部分,SVM的推导我每隔几周复习一次,每次都有新的收获。&/p&&br&&p&自己写了一个豆瓣爬虫,爬了豆瓣11W多网页共4W本书,利用PyQt写了一个界面,使用基于物品的协同过滤算法推荐书籍。&/p&&br&&p&这段时间还走了点弯路,报了个课程,写了一个图片分享网站,学了一些前端和后台的东西,如HTML,CSS,JavaScript和Flask等等,本来是想学完这个,把书籍推荐的那个项目从单机版做成网页版,服务于他人,结果根本没时间,做不到那一步,面试也从来没问过这些东西,囧……&/p&&br&&br&&b&4. 其它&/b&&p&做数据挖掘不可避免的要接触大数据,目前常用的大数据框架就两个,Hadoop和Spark,如果会一个就很有优势,在美团实习的同学说这两个都用……所以建议看完C以后,不学C++,学Java,因为Hadoop的原生开发语言是Java,资料多;相应的Spark的原生开发语言是Scala,不过也有Python的API。&/p&&br&&p&具体学Hadoop还是Spark,学Java还是Scala,大家还是在拉勾网上面看自己心仪岗位的要求。反正答主目前是在恶补Java和Hadoop,希望在入职前补上短板。&/p&&br&&br&&b&5. 校招&/b&&p&每年3、4月份各大厂会招很多实习生,尽量出去实习,面试的时候有实习经历很有优势,哪怕公司比较小,只要你实际上在认真的做项目就可以了,有人带怎么都比自学好。答主原本计划出去实习,但是导师根本不放,心好累。&/p&&br&&p&面试主要有两点要说,一是一定要先去面一下不想去的公司,熟悉一下面试流程和套路,二是一定要多看面经。答主花了两天看了近200篇机器学习岗的面经,把问题和答案都整理了一下,收获很大,后面面试碰到了好多原题。&/p&&br&&p&对于答主来说,最难的不是面试,而是笔试,笔试范围广,难度大,今年要是不能全AC,进面试很难。怎么办?想办法内推吧,避免参加笔试,内推从7月份就开始了,多找学长问问,没有学长,就去论坛上发帖求内推,要不然9月份笔一次挂一次,会严重怀疑人生。&/p&&br&&br&&b&6. 推荐书单&/b&&p&先说答主看过的,质量保证: &br&C/C++:《C程序设计语言》,《C++ Primer》 &br&数据结构和算法:《算法(第4版)》,《剑指offer》,《程序员代码面试指南》 &br&机器学习:《机器学习》(周志华),《机器学习实战》,《统计学习方法》,《推荐系统实践》 &br&Python:《Python核心编程(第二版)》,《利用Python进行数据分析》&/p&&br&&p&其中《Python核心编程(第二版)》有点厚,像字典,不适合遍历,网上都推荐&a href=&//link.zhihu.com/?target=https%3A//book.douban.com/subject/4866934/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&《Python基础教程》&/a&,应该也不错。&/p&&br&&p&没看过的,但是评价也不错的:《Effective C++》,《STL源码剖析》;《编程之美》,《编程珠玑》;《数据挖掘导论》,《集体智慧编程》,《模式识别和机器学习》,《凸优化》;《深入理解计算机系统》,《操作系统》,《计算机程序的构造和解释》,《代码大全》,《Head First 设计模式》,《代码整洁之道》,《程序员的自我修养》。&/p&&br&&p&这些书足够看3-5年了,233~&/p&&br&&br&&b&7. 小结&/b&&ul&&li&一定要耐得住寂寞,守得住孤独,没有人和你讨论问题,就去网上求助&/li&&li&一定要动手实践并且随时做笔记,要不然忘得很快&/li&&li&OJ尽早开始刷,最晚7月开始,9月前至少做完200~300道题&/li&&li&能实习就实习,不能实习一定要参加Kaggle比赛&/li&&li&常见的机器学习模型都能推导,会调参,能说优缺点,能和别的模型比较&/li&&/ul&&br&&br&&b&彩蛋——常见机器学习问题&/b&&ul&&li&什么是bias和variance&/li&&li&k折交叉验证中k取值多少有什么关系&/li&&li&分类模型和回归模型的区别是什么&/li&&li&为什么会产生过拟合&/li&&li&如何解决过拟合&/li&&li&写出信息增益,信息增益比和基尼系数的公式&/li&&li&写出LR的目标函数和损失函数&/li&&li&LR和SVM的异同&/li&&li&推导SVM&/li&&li&SVM在哪个地方引入核函数&/li&&li&常用的核函数有哪些,说说它们的特点及调参方式&/li&&li&随机森林的学习过程&/li&&li&随机森林的优缺点&/li&&li&GBDT和随机森林的区别&/li&&li&如何判断决策树过拟合&/li&&li&线性分类器与非线性分类器的区别及优劣&/li&&li&特征比数据量还大时,选择什么样的分类器&/li&&li&L1和L2正则的区别,如何选择L1和L2正则&/li&&li&多分类怎么处理&/li&&li&如何进行特征选择&/li&&li&吐槽一个推荐算法,并提出修改意见&/li&&/ul&
我是一个从传统行业转行到数据挖掘的应届生,我从我的角度回答一下这个问题吧,希望能对其他的同学有帮助,不过毕竟是个人经历,有一定的局限性,还请大家以批判的眼光看待这篇回答。 1. 前言 答主是2017应届毕业生,已签美团的数据挖掘岗,本次秋招一共投…
&p&&b&更新&/b&&/p&&p&&b&----------------------------------------------------------------------------------------&/b&&/p&&p&&b&一、Java开发岗&/b&&/p&&p&1、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/25118%3Ftype%3D2%26order%3D3%26pos%3D7%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&京东面经(JAVA开发) 走完流程等通知&/a&&br&&/p&&p&2、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/25094%3Ftype%3D2%26order%3D3%26pos%3D10%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&网易杭州_实习_Java开发__笔经面经_牛客网&/a&&br&&/p&&p&3、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/25026%3Ftype%3D2%26order%3D3%26pos%3D16%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&腾讯北京后台一面(已挂)_笔经面经_牛客网&/a&&/p&&p&4、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/25018%3Ftype%3D2%26order%3D3%26pos%3D17%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&京东成都研究院 Java后台_笔经面经_牛客网&/a&&/p&&p&5、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/24964%3Ftype%3D2%26order%3D3%26pos%3D24%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&京东java后台二面(电面)_笔经面经_牛客网&/a&&/p&&p&6、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/24905%3Ftype%3D2%26order%3D3%26pos%3D25%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&去哪儿武汉站面经(java方向)_笔经面经_牛客网&/a&&/p&&p&7、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/24900%3Ftype%3D2%26order%3D3%26pos%3D26%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&阿里,摩根,野村,腾讯,微软,图鸭科技面经分享_笔经面经_牛客网&/a&&/p&&p&8、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/24894%3Ftype%3D2%26order%3D3%26pos%3D28%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&记录一下我这次的春招面试经历_笔经面经_牛客网&/a&&/p&&p&9、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/24842%3Ftype%3D2%26order%3D3%26pos%3D35%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&华为面经(java)_笔经面经_牛客网&/a&&/p&&p&10、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/24691%3Ftype%3D2%26order%3D3%26pos%3D45%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&京东java后台初面_笔经面经_牛客网&/a&&/p&&p&11、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/24679%3Ftype%3D2%26order%3D3%26pos%3D47%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&京东JAVA一面_笔经面经_牛客网&/a&&/p&&p&12、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/24638%3Ftype%3D2%26order%3D3%26pos%3D52%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&京东一面,大约45分钟左右_笔经面经_牛客网&/a&&/p&&p&13、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/24573%3Ftype%3D2%26order%3D3%26pos%3D60%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&美团面试一面+二面+HR面_笔经面经_牛客网&/a&&/p&&p&14、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/24515%3Ftype%3D2%26order%3D3%26pos%3D63%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&武汉腾讯后台开发一面(gg)经历 &/a&&/p&&p&15、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/24387%3Ftype%3D2%26order%3D3%26pos%3D77%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&2017年春招、散招实习面经(已拿网易游戏、CVTE,美团)_笔经面经_牛客网&/a&&/p&&p&16、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/24354%3Ftype%3D2%26order%3D3%26pos%3D79%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&人人研发工程师实习生面试经历(Java)_笔经面经_牛客网&/a&&/p&&p&17、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/24212%3Ftype%3D2%26order%3D3%26pos%3D89%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&京东面经 一面_笔经面经_牛客网&/a&&/p&&p&18、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/23933%3Ftype%3D2%26order%3D3%26pos%3D95%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&人人 2017实习生招聘面试经验(java后台开发)&/a&&/p&&p&19、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/24307%3Ftype%3D2%26order%3D3%26pos%3D82%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&京东电面问题_笔经面经_牛客网&/a&&/p&&p&20、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/24026%3Ftype%3D2%26order%3D3%26pos%3D92%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&头条后台开发实习生面经_笔经面经_牛客网&/a&&/p&&p&21、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/24014%3Ftype%3D2%26order%3D3%26pos%3D94%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&分享一波美团的面经攒人品_笔经面经_牛客网&/a&&/p&&p&22、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/23924%3Ftype%3D2%26order%3D3%26pos%3D97%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&千呼万唤始出来的美团一面_笔经面经_牛客网&/a&&/p&&p&23、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/23688%3Ftype%3D2%26order%3D3%26pos%3D101%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&阿里一面(因没有项目,就简单的问了些基础)_笔经面经_牛客网&/a&&/p&&p&24、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/23663%3Ftype%3D2%26order%3D3%26pos%3D103%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&华为+阿里实习面经java_笔经面经_牛客网&/a&&/p&&p&25、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/23353%3Ftype%3D2%26order%3D3%26pos%3D124%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&菜鸟一面二面_笔经面经_牛客网&/a&&/p&&p&26、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/23351%3Ftype%3D2%26order%3D3%26pos%3D125%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&阿里一面面经_笔经面经_牛客网&/a&&/p&&p&27、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/23320%3Ftype%3D2%26order%3D3%26pos%3D131%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&17应届美团面经_笔经面经_牛客网&/a&&/p&&p&28、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/23296%3Ftype%3D2%26order%3D3%26pos%3D133%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&对一个多月的实习春招问到的问题做个汇总_笔经面经_牛客网&/a&&/p&&p&29、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/23232%3Ftype%3D2%26order%3D3%26pos%3D158%26page%3D2& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&18届开学到现在找实习面经(已拿到腾讯,第四范式offer)_笔经面经_牛客网&/a&&/p&&p&30、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/21003%3Ftype%3D2%26order%3D3%26pos%3D278%26page%3D2& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&找工作攻略(offer:阿里,腾讯,百度,华为,今日头条等)_笔经面经_牛客网&/a&&/p&&p&31、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/22854%3Ftype%3D2%26order%3D3%26pos%3D185%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&菜鸟一面70分钟_笔经面经_牛客网&/a&&/p&&p&32、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/22857%3Ftype%3D2%26order%3D3%26pos%3D183%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&oppo java一面_笔经面经_牛客网&/a&&/p&&p&33、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/22308%3Ftype%3D2%26order%3D3%26pos%3D217%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&携程一、二面,爱奇艺一面_笔经面经_牛客网&/a&&/p&&p&34、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/22223%3Ftype%3D2%26order%3D3%26pos%3D225%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&蚂蚁金服两次面试后。。。_笔经面经_牛客网&/a&&/p&&p&35、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/22294%3Ftype%3D2%26order%3D3%26pos%3D219%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&腾讯云一面面经()_笔经面经_牛客网&/a&&/p&&p&36、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/22103%3Ftype%3D2%26order%3D3%26pos%3D234%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&美团-后台开发-实习生-一面_笔经面经_牛客网&/a&&/p&&p&37、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/22089%3Ftype%3D2%26order%3D3%26pos%3D235%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&阿里技术面分享_笔经面经_牛客网&/a&&/p&&p&38、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/22030%3Ftype%3D2%26order%3D3%26pos%3D238%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&阿里一面总结_笔经面经_牛客网&/a&&/p&&p&39、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/22022%3Ftype%3D2%26order%3D3%26pos%3D240%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&携程视频面试一面面经_笔经面经_牛客网&/a&&/p&&p&40、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/21824%3Ftype%3D2%26order%3D3%26pos%3D244%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&蚂蚁金服暑期实习生一面总结_笔经面经_牛客网&/a&&/p&&p&41、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/21783%3Ftype%3D2%26order%3D3%26pos%3D248%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&阿里巴巴内推(菜鸟驿站)一面总结_笔经面经_牛客网&/a&&/p&&p&42、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/21733%3Ftype%3D2%26order%3D3%26pos%3D253%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&阿里实习生一面经历分享(JAVA开发)_笔经面经_牛客网&/a&&/p&&p&43、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/21665%3Ftype%3D2%26order%3D3%26pos%3D258%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&上海平安前海征信公司-面试经历_笔经面经_牛客网&/a&&/p&&br&&p&44、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/21626%3Ftype%3D2%26order%3D3%26pos%3D260%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&【唯品会实习面试】 记录一下 再过两天就要忘了。&/a&&/p&&p&45、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/21185%3Ftype%3D2%26order%3D3%26pos%3D271%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&分享一下找工作的经验_笔经面经_牛客网&/a&&/p&&p&46、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/21058%3Ftype%3D2%26order%3D3%26pos%3D275%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&美图2017大三实习生电话面试_笔经面经_牛客网&/a&&/p&&p&47、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/21037%3Ftype%3D2%26order%3D3%26pos%3D276%26page%3D2& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&阿里巴巴暑期实习面试经验分享_笔经面经_牛客网&/a&&/p&&p&48、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/25345%3Ftype%3D2%26order%3D3%26pos%3D9%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&学渣的春招路_笔经面经_牛客网&/a&&/p&&p&49、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/25314%3Ftype%3D2%26order%3D3%26pos%3D10%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&网易杭研java面经_413_笔经面经_牛客网&/a&&/p&&p&50、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/25307%3Ftype%3D2%26order%3D3%26pos%3D11%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&一个菜鸡的春招经历合集(美团点评、搜狐、cvte、招银网络)_笔经面经_牛客网&/a&&/p&&p&51、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/25297%3Ftype%3D2%26order%3D3%26pos%3D13%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&京东暑期实习面经_笔经面经_牛客网&/a&&/p&&p&52、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/25291%3Ftype%3D2%26order%3D3%26pos%3D14%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&头条第一批面经 后台开发_笔经面经_牛客网&/a&&/p&&p&53、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/25278%3Ftype%3D2%26order%3D3%26pos%3D15%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&搜狐电面面经_笔经面经_牛客网&/a&&/p&&p&54、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/25277%3Ftype%3D2%26order%3D3%26pos%3D16%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&京东java后台开发HR面试 _笔经面经_牛客网&/a&&/p&&p&55、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/25226%3Ftype%3D2%26order%3D3%26pos%3D23%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&京东美团Java研发暑期实习面经_笔经面经_牛客网&/a&&/p&&p&56、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/25223%3Ftype%3D2%26order%3D3%26pos%3D24%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&我的京东Java开发实习生面试经历_笔经面经_牛客网&/a&&/p&&br&57、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/25725%3Ftype%3D2%26order%3D3%26pos%3D10%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&2017京东春招实习西安站测试1面+2面(已挂)_笔经面经_牛客网&/a&&p&58、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/25721%3Ftype%3D2%26order%3D3%26pos%3D11%26page%3D1& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&蘑菇街一面-卒_笔经面经_牛客网&/a&&/p&&p&59、&a href=&https://link.zhihu.com/?target=https%3A//www.nowcoder.com/discuss/25719%3Ftype%3D2%26order}

我要回帖

更多关于 建行个人网上银行登入 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信