数据挖掘课程。

爽爽小无敌 2021-09-19 09:06 482 次浏览 赞 118

最新问答

  • 潇潇若雨

    国际权威学术组织的挖掘(ICDM)12 2006 IEEE国际会议上入选十大经典领域的挖掘算法:.5,K均值,SVM,先验,EM的PageRank,AdaBoost的朴素贝叶斯,KNN,和CART
    不只是所选算法10,事实上,参与的18种算法的选择,其实,只是为了拿出一个可以称得上是经典算法的挖掘领域有产生深远的影响。

    的.5

    .5算法是一种分类决策树算法,机器学习算法,核心算法是ID3算法.5算法继承了ID3算法的优点和ID3算法已经在以下几个方面:

    1)信息增益率提高,选择属性,克服偏差值选择属性信息增益选择属性缺乏;

    2)在树结构中修剪;

    3)完成的过程中连续属性离散化;

    4)不完整的。

    .5算法有以下优点:产生的分类规则易于理解,准确率较高。其缺点是:在树形结构中,顺序扫描和排序的集,从而导致低效率的算法。

    2。 K-means算法

    k-means算法算法的k-means算法是一个聚类算法,根据其属性分成K,K
    支持向量机

    支持向量机,支持向量机的英语,简称SV机(通常被称为纸SVM)。这是一个监督的学习方法,这是广泛使用的统计分类和回归分析。支持向量机向量映射到高维空间,在这个空间中创建有一个最大间隔超平面。在单独的的超平面的两侧上的两个相互平行的超平面。分离超平面,使两个平行的超平面的距离最大化。假设越大平行的超平面的距离或空隙时,分类器的总误差越小。优秀导游CJC Burges“模式识别支持向量机指南。范德沃尔特和巴纳德的支持向量机等分类进行了比较。

    Apriori算法

    Apriori算法是一个最有影响力的挖掘布尔关联规则频繁项集算法,其核心是一组递归算法思想的基础上两个阶段的频率。关联规则被归类为一维的,单一的,布尔关联规则。在这里,所有支持大于称为最小支持度的项集称为频繁项集,作为频率设定

    最大期望(EM)算法在统计计算的最大期望(EM,期望最大化)算法找到参数最大的期望经常用在机器学习和计算机视觉采集领域(聚类模型中的概率(概率)似然估计算法,其中概率模型是依赖于不可观察的隐变量(潜variabl)。 )

    6。的PageRank

    谷歌的PageRank算法,2001年9月被授予了美国专利,该专利是谷歌创始人拉里·佩奇(Larry Page)。,PageRank和多年的不是指到页面上,但,这个水平是命名。

    的PageRank根据网站的数量和质量来衡量网站的价值的内部和外部链接。背后的PageRank概念每个链接的网页是一个投票的页面,链接,投票更意味着其他网站,这是所谓的“链接流行度” - 衡量有多少人愿意被链接到他们的网站,您的网站。被引述的PageRank的概念经常被引用在学术论文 - 即被引用其他一些更普遍的权威判断本文

    7 AdaBoost的

    Adaboost的是一种迭代算法其核心思想是相同的训练集的不同的分类器(弱分类器),然后这些弱分类器共同构成一个更强的最终分类器(强分类器)。这个算法本身是通过改变分布,它是正确的,根据分类每个训练集的每个样品,和最后的总分类精度来确定每个样品的重量。的新集的权重给较低的分类器的训练,融合每个训练上的最终的分类,作为最终决定分类

    KNN:k-最近邻分类

    K近邻(K近邻,KNN)分类算法,是一个理论上更成熟的方式,也是最简单的机器学习算法的想法?方法是:如果在特征空间中的样本,K最相似的(即,在特征空间中最接近的大多数样品)属于一类,将样品也属于这一类。 BR p> 9。朴素贝叶斯

    在众多的分类模型,两种最常用的分类模型是决策树模型(决策树模型)和Na?ve Bayes分类模型(朴素贝叶斯模型,NBC)天真贝叶斯模型发源于古典数学理论,具有扎实的数学基础,以及稳定的分类效率。与此同时,需要非常少的参数估计NBC模型,丢失的是不敏感的算法是相对简单。从理论上讲,NBC模型具有最小的误差率相比,与其他分类方法。但事实上并非总是如此,这是因为NBC模型假设属性相互的,在实际应用中,这种假设是往往不成立的,这带来了一定影响NBC模型的正确分类。数量的属性或属性之间的相关性较大时,NBC模型的分类比较决策树模型的效率。物业较少有关,表现NBC模型是最有利的。

    10。车:分类和回归树
    车,分类与回归树。在分类树下面有两个关键的思路。第一个是的想法?递归划分的变量的空间;第二个想法是修剪与验证。

    浏览 411赞 103时间 2021-10-20

数据挖掘课程。