搜索资源列表
20050825203519291
- 双击即可打开揭压缩监督LVQ神经网络存在神经元未被充分利用以及输入样本和竞争单元之间的信息被浪费等问题.通过将EM算法引入到LVQ神经网络中,提出了基于EM聚类算法的有监督LVQ神经网络(即EMLVQ网络),-LVQ.EMLVQ,EMLVQ(EMLVQ)
EMGMM
- 混合高斯模型和EM算法结合,当中用到了自己写的Kmeans聚类,附带测试样例、训练样例和main函数。
基于贝叶斯网络的半监督聚类集成模型
- 已有的聚类集算法基本上都是非监督聚类集成算法,这样不能利用已知信息,使得聚类集成的准确性、鲁棒性和稳定性降低.把半监督学习和聚类集成结合起来,设计半监督聚类集成模型来克服这些缺点.主要工作包括:第一,设计了基于贝叶斯网络的半监督聚类集成(semi-supervised cluster ensemble,简称SCE)模型,并对模型用变分法进行了推理求解;第二,在此基础上,给出了EM(expectation maximization)框架下
20050825203519291
- 双击即可打开揭压缩监督LVQ神经网络存在神经元未被充分利用以及输入样本和竞争单元之间的信息被浪费等问题.通过将EM算法引入到LVQ神经网络中,提出了基于EM聚类算法的有监督LVQ神经网络(即EMLVQ网络),-LVQ.EMLVQ,EMLVQ(EMLVQ)
EMGMM
- 混合高斯模型和EM算法结合,当中用到了自己写的Kmeans聚类,附带测试样例、训练样例和main函数。-Gaussian Mixture Model and EM algorithms, which use their own written Kmeans cluster, with the test sample, the training sample and the main function.
GMM
- 实现混合高斯模型的聚类算法 利用最大似然估计和最大期望的方法来实现混合高斯模型-Gaussian mixture model to achieve clustering algorithm using the maximum likelihood estimation and the greatest way to achieve the desired mixed-Gaussian model
EM
- EM最大期望算法:算法是在概率模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐藏变量。最大期望经常用在机器学习和计算机视觉的数据聚类领域。-EM algorithm
em
- 在统计计算中,最大期望(EM)算法是在概率(probabilistic)模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐藏变量(Latent Variable)。最大期望经常用在机器学习和计算机视觉的数据聚类(Data Clustering)领域。 -In the statistical calculations, the maximum expected (EM) algorithm paramet
EM
- 模糊聚类算法的应用,找出相应的焦点和系统运行的相关状态。-Application of FCM and EM,it can select the focus and the operation of the system.
GM_EM
- 经典的em算法即期望最大化算法,可用于高斯混合GMM模型和聚类算法,-Classic em algorithm that expectation maximization algorithm can be used for Gaussian mixture models and GMM clustering algorithm,
lab6
- 在统计计算中,最大期望(EM)算法是在概率(probabilistic)模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐藏变量(Latent Variable)。最大期望经常用在机器学习和计算机视觉的数据聚类(Data Clustering)领域。
EM算法
- 在统计计算中,最大期望(EM)算法是在概率(probabilistic)模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐藏变量(Latent Variable)。最大期望经常用在机器学习和计算机视觉的数据聚类(Data Clustering)领域。(In statistical calculation, the expectation maximization (EM) algorithm in prob
6.聚类和EM算法
- 聚类和EM算法实例,包括线性分类和非线性分类,线性回归和非线性回归(Examples of clustering and EM algorithm include linear classification and nonlinear classification, linear regression and nonlinear regression)
peel-lerher
- 混合高斯模型和EM算法结合,当中用到了自己写的Kmeans聚类,附带测试样例,训练样例和main函数,()
GMM
- 此算法实现高斯混合,可以对初始聚类算法选择c均值和EM,可以实现密度估计和分类。(This GMM algorithm can estimate the density and class, the initial steps can select the C-mean and EM.)
yssr
- 混合高斯模型和EM算法结合,当中用到了自己写的Kmeans聚类,附带测试样例,训练样例和main函数,()
MRMRF simple
- 基于MRF图形的小波与分解 获取最粗尺度上的初始分割。使用EM算法必须有一个初值,因此我们首先使用K-均值聚类算法获取尺度J-1上的初始分割结果。 2.E步骤。使用MPL方法GMRF模型参数。 3.M步骤。使用估计出的参数,采用运算速度较快的迭代条件模式(ICM)通过最小化获取尺度上的优化的分割结果。 4.尺度内迭代。重复2和3知道满足某种准则,迭代停止。我们获得尺度n上的最终分割结果。 5.尺度间迭代。将尺度n的分割结果之间映
em
- 在统计计算中,最大期望(EM)算法是在概率模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐性变量。最大期望算法经常用在机器学习和计算机视觉的数据聚类(Data Clustering)领域。(In statistical computation, the maximum expectation (EM) algorithm is an algorithm to find the maximum likeli