更多“K-means方法中需要聚类的个数是()。”相关问题
  • 第1题:

    K-means聚类适用的数据类型是()。

    A.语音数据

    B.数值型数据

    C.所有数据

    D.字符型数据


    正确答案:B

  • 第2题:

    关于聚类算法K-Means和DBSCAN的叙述中,不正确的是( )。

    A.K-Means和DBSCAN的聚类结果与输入参数有很大的关系
    B.K-Means基于距离的概念而DBSCAN基于密度的概念进行聚类分析
    C.K-Means很难处理非球形的簇和不同大小的簇,DBSCAN可以处理不同大小和不同形状的簇
    D.当簇的密度变化较大时,DBSCAN不能很好的处理,而K-Means则可以

    答案:D
    解析:
    本题考查数据挖掘的基础知识。K-Means和DBSCAN是两个经典的聚类算法,将相似的数据对象归类一组,不相似的数据对象分开。K-means算法基于对象之间的聚类进行聚类,需要输入聚类的个数。DBSCAN算法基于密度进行聚类,需要确定阈值,两者的聚类结果均与输入参数关系很大。DBSCAN可以处理不同大小和不同形状的簇,而K-means算法则不适合。若数据分布密度变化大,则这两种算法都不适用。

  • 第3题:

    若数据量较大,下面哪种方式比较适合()

    • A、系统聚类
    • B、快速聚类(k-means)
    • C、A和B都可以
    • D、A和B都不可以

    正确答案:B

  • 第4题:

    K-means算法的缺点不包括()

    • A、K必须是事先给定的
    • B、选择初始聚类中心
    • C、对于“噪声”和孤立点数据是敏感的
    • D、可伸缩、高效

    正确答案:D

  • 第5题:

    K-means算法的叙述正确的是()

    • A、在K-means算法中K是事先给定的,这个K值的选定是非常难以估计的
    • B、在K-means算法中,首先需要根据初始聚类中心来确定一个初始划分,然后对初始划分进行优化
    • C、对于一个类中的每个对象,在其给定半径的领域中包含的对象不能少于某一给定的最小数目的新的聚类心,因此当数据量非常大时,算法的时间开销是非常大的

    正确答案:A,B,D

  • 第6题:

    K均值是一种产生划分聚类的基于密度的聚类算法,簇的个数由算法自动地确定。


    正确答案:错误

  • 第7题:

    下列哪种算法属于聚类算法的范畴().

    • A、Apriori算法
    • B、k-means算法
    • C、kNN算法
    • D、C4.5算法

    正确答案:B

  • 第8题:

    单选题
    若数据量较大,下面哪种方式比较适合()
    A

    系统聚类

    B

    快速聚类(k-means)

    C

    A和B都可以

    D

    A和B都不可以


    正确答案: A
    解析: 暂无解析

  • 第9题:

    多选题
    K-means算法叙述正确的是()
    A

    在K-means算法中K是事先给定的,这个K值的选定是非常难以估计的

    B

    在K-means算法中,首先需要根据初始聚类中心来确定一个初始划分,然后对初始划分进行优化

    C

    对于一个类中的每个对象,在其给定半径的领域中包含的对象不能少于某一给定的最小数目

    D

    从K-means算法框架可以看出,该算法需要不断地进行样本分类调整,不断地计算调整后的新的聚类中心,因此当数据量非常大时,算法的时间开销是非常大的


    正确答案: A,B,D
    解析: 暂无解析

  • 第10题:

    单选题
    简单地将数据对象集划分成不重叠的子集,使得每个数据对象恰在一个子集中,这种聚类类型称作()
    A

    层次聚类

    B

    划分聚类

    C

    非互斥聚类

    D

    模糊聚类


    正确答案: A
    解析: 暂无解析

  • 第11题:

    判断题
    K均值是一种产生划分聚类的基于密度的聚类算法,簇的个数由算法自动地确定。
    A

    B


    正确答案:
    解析: 暂无解析

  • 第12题:

    单选题
    K-means算法的缺点不包括()
    A

    K必须是事先给定的

    B

    选择初始聚类中心

    C

    对于“噪声”和孤立点数据是敏感的

    D

    可伸缩、高效


    正确答案: A
    解析: 暂无解析

  • 第13题:

    K均值K-Means算法是密度聚类。()

    此题为判断题(对,错)。


    正确答案:错误

  • 第14题:

    简述k-means算法,层次聚类算法的优缺点。


    正确答案:(1)k-means算法:
    优点:算法描述容易,实现简单快速
    不足:
    簇的个数要预先给定
    对初始值的依赖极大
    不适合大量数据的处理
    对噪声点和离群点很敏感
    很难检测到“自然的”簇
    (2)层次聚类算法:
    BIRCH算法:
    优点:利用聚类特征树概括了聚类的有用信息,节省内存空间;具有对象数目呈线性关系,可伸缩性和较好的聚类质量。
    不足:每个节点只能包含有限数目的条目,工作效率受簇的形状的影响大。
    C.URE算法:
    优点:对孤立点的处理能力强;适用于大规模数据处理,伸缩性好,没有牺牲聚类质量。
    缺点:算法在处理大量数据时必须基于抽样,划分等技术。
    R.OCK算法:
    优点:分类恰当,可采用随机抽样处理数据。
    缺点:最坏的情况下时间复杂度级数大。
    基于密度的聚类算法:可识别具有任意形状不同大小的簇,自动确定簇的数目,分离簇和环境噪声,一次扫描即可完成聚类,使用空间索引时间复杂度为O(NlbN)。

  • 第15题:

    聚类分析是常用商情分析工具中的一种,常用的聚类分析方法有()。

    • A、样品聚类法
    • B、系统聚类法
    • C、抽查聚类法
    • D、模糊聚类法
    • E、相关聚类法

    正确答案:A,B,D

  • 第16题:

    K-means算法叙述正确的是()

    • A、在K-means算法中K是事先给定的,这个K值的选定是非常难以估计的
    • B、在K-means算法中,首先需要根据初始聚类中心来确定一个初始划分,然后对初始划分进行优化
    • C、对于一个类中的每个对象,在其给定半径的领域中包含的对象不能少于某一给定的最小数目
    • D、从K-means算法框架可以看出,该算法需要不断地进行样本分类调整,不断地计算调整后的新的聚类中心,因此当数据量非常大时,算法的时间开销是非常大的

    正确答案:A,B,D

  • 第17题:

    K-Means聚类法要求自变量之间不存在共线性,是因为()

    • A、变量存在多重共线性时无法得到聚类结果
    • B、变量存在多重共线性时无法解释聚类结果
    • C、变量存在多重共线性时,相关变量会在距离计算中占据很高的权重,从而对聚类结果有负面的影响
    • D、变量存在多重共线性时,得到的聚类结果是完全错误的

    正确答案:C

  • 第18题:

    在K-Means聚类分析中,初始聚点的选择方法有().

    • A、根据经验选择
    • B、随机选择
    • C、将全部样本人为地或者随机的进行划分,以每类的重心为聚点
    • D、以上都可以

    正确答案:D

  • 第19题:

    简单地将数据对象集划分成不重叠的子集,使得每个数据对象恰在一个子集中,这种聚类类型称作()。

    • A、层次聚类
    • B、划分聚类
    • C、非互斥聚类
    • D、模糊聚类

    正确答案:B

  • 第20题:

    单选题
    K-Means聚类法要求自变量之间不存在共线性,是因为()
    A

    变量存在多重共线性时无法得到聚类结果

    B

    变量存在多重共线性时无法解释聚类结果

    C

    变量存在多重共线性时,相关变量会在距离计算中占据很高的权重,从而对聚类结果有负面的影响

    D

    变量存在多重共线性时,得到的聚类结果是完全错误的


    正确答案: D
    解析: 暂无解析

  • 第21题:

    单选题
    在K-Means聚类分析中,初始聚点的选择方法有().
    A

    根据经验选择

    B

    随机选择

    C

    将全部样本人为地或者随机的进行划分,以每类的重心为聚点

    D

    以上都可以


    正确答案: D
    解析: 暂无解析

  • 第22题:

    问答题
    简述系统聚类与K-means聚类的基本原理。

    正确答案: K.means聚类的基本原理:
    聚类不一定事先确定有多少类;但是K-means聚类却要求先说好要分多少类。看起来有些主观。
    假定分3类,这个方法还进一步要求你事先确定3个点为“聚类种子”(多数软件会自动选种子);也就是说,把这3个点作为三类中每一类的基石。然后根据和这三个点的距离远近,把所有点分成三类。再把这三类的中心(均值)作为新的基石或种子(原来“种子”就没用了),再重新按照距离分类。如此叠代下去,直到达到停止叠代的要求(比如,各类最后变化不大了,或者叠代次数太多了)。显然,前面的聚类种子的选择并不必太认真,它们很可能最后还会分到同一类中。
    解析: 暂无解析

  • 第23题:

    判断题
    在非等级聚类法中,已被聚类的对象能够被重新再聚类的是最优化方法。
    A

    B


    正确答案:
    解析: 暂无解析

  • 第24题:

    单选题
    定义聚类问题最重要的是()。
    A

    选择聚类分析变量

    B

    决定类的个数

    C

    选择聚类方法

    D

    选择距离尺度及数据


    正确答案: D
    解析: 暂无解析