搜索到4593篇“ 相似度度量“的相关文章
面向密峰值聚类的高效相似度量被引量:1
2024年
针对密峰值聚类(density peaks clustering,DPC)计算复杂高的问题,提出一种面向密峰值聚类的高效相似度量(efficient similarity measure,ESM)法,通过仅度量最近邻之间的相似构建不完全相似矩阵。最近邻的选择基于一个随机第三方数据对象,无需另外引入参数。基于ESM法构建相似矩阵,提出一种改进的高效密峰值聚类(efficient density peaks clustering,EDPC)算法,在保持准确率的同时提高DPC识别聚类中心的效率。理论分析和试验结果表明,ESM法通过减少一定不相似相似,可以有效提高DPC及其改进算法基于K最近邻的密峰值聚类(density peaks clustering based on K-nearest neighbors,DPC-KNN)和模糊加权K最近邻密峰值聚类(fuzzy weighted K-nearest neighbors density peaks clustering,FKNN-DPC)的计算效率,具有较强的可扩展性。
王丽娟王丽娟丁世飞
关键词:聚类中心相似度矩阵计算复杂度大规模数据集
基于不确定性理论的单词语义相似度量
全球恐怖主义因其异常活动而导致经济损失,网络战争和网络犯罪,给刑事司法系统带来了挑战。因此,通过准确地从大数据中提取犯罪信息以估计国家和国际层面的潜在风险,监视恐怖组织的活动是全球性的挑战。许多常规的计算方法已成功实现,...
Binod Kumar Adhikari(拜诺)
关键词:HADOOPSPARK奇异值分解潜在语义索引
基于垂直维序列动态时间规整方法的图相似度量
2018年
针对图相似度量过程中复杂高、信息缺失的问题,采用将图转换为广义树,将广义树表示为垂直维序列的方法,通过计算垂直维序列的距离度量图的相似。该方法把度量相似的问题简化为计算垂直维序列距离的问题。垂直维序列不仅包含了顶点标号、入和出信息,而且体现了顶点的层次结构特性,保留了图中的路径信息。与现有方法相比,该方法在度量过程中考虑了更多的图信息,并将时间复杂降至O(n^2)。
王旭欧阳继红陈桂芬
关键词:人工智能动态时间规整时间复杂度
基于PSO-BP算法的地理本体概念语义相似度量被引量:1
2017年
针对现有度量方法中考虑因素不够全面和因子权重计算依据经验确定的不足,提出粒子群优化BP神经网络(PSO-BP)的地理本体概念语义相似度量模型。该模型利用本体属性、本体结构和语义关系的相似,结合权重信息计算概念的综合相似;同时,利用粒子群算法优化的BP神经网络获取因子权重,避免现有方法中因子权重确定的人为主观干扰。最后,从基础地理信息概念中提取出200组样本,用其中190组作为训练集,对神经网络模型进行训练,以获取权重;剩余10组作为测试集。将该模型和几种常用算法进行对比,通过分析测试集的各算法求解结果和专家判定结果之间的相关系数,结果表明该模型计算地理本体概念的相似更为准确,符合人类认知特性,效果更好。
韩学仁王青山郭勇崔兴亚
关键词:地理本体粒子群算法
基于低维语义向量模型的语义相似度量被引量:7
2016年
语义相似度量能够提高信息检索的准确性和效率,已成为文本处理中的一个核心任务.为解决一词多义等词汇歧义问题,提出一种基于低维向量组合的语义向量模型.该模型引入了知识库与语料库的多语义特征的融合,主要的语义融合对象包括连续的分布式词向量和从WordNet结构中的语义特征信息.首先利用深学习技术中的神经网络语言模型,预先从文本语料中学习得到连续的低维词向量;然后从知识库WordNet中抽取多种语义信息和关系信息;再将多语义信息融入词向量进行知识扩展和强化,生成语义向量,从而实现基于向量空间的语义相似度量方法.在基准测试集上的实验结果表明,该方法优于基于单一信息源(知识库WordNet或文本语料)的语义相似度量方法,其皮尔森相关系数比基于原始词嵌套向量的方法提高了7.5%,说明在向量特征层面上的多语义信息的融合有助于度量词汇间的语义相似性.
蔡圆媛卢苇
关键词:语义相似度
基于朴素贝叶斯模型的单词语义相似度量被引量:12
2015年
单词语义相似度量是自然语言处理领域的经典和热点问题.通过结合朴素贝叶斯模型和知识库,提出一个新颖的度量单词语义相似度量途径.首先借助通用本体WordNet获取属性变量,然后使用统计和分段线性插值生成条件概率分布列,继而通过贝叶斯推理实现信息融合获得后验概率,并在此基础上量化单词语义相似.主要贡献是定义了单词对距离和深,并将朴素贝叶斯模型用于单词语义相似度量.在基准数据集R&G(65)上,对比算法评判结果与人类评判结果的相关,采用5折交叉验证对算法进行分析,样本Pearson相关达到0.912,比当前最优方法高出0.4%,比经典算法高出7%~13%;Spearman相关达到0.873,比经典算法高出10%~20%;且算法的运行效率和经典算法相当.实验结果显示将朴素贝叶斯模型和知识库相结合解决单词语义相似问题是合理有效的.
王俊华左万利闫昭
关键词:语义相似度朴素贝叶斯模型WORDNET
基于模糊贴近的正态云模型相似度量被引量:38
2015年
提出一种新的计算正态云模型相似方法——基于组合模糊贴近的正态云相似方法,该方法利用两种模糊贴近,并通过计算修正的正态云期望曲线的模糊贴近度量云模型的相似。实例表明,与现有方法相比本文方法计算简单,能够更有效的对正态云模型相似进行度量
龚艳冰蒋亚东梁雪春
关键词:正态云模型
基于证据理论的单词语义相似度量被引量:4
2015年
单词语义相似度量一直是自然语言处理领域的经典和热点问题,其成果可对词义消歧、机器翻译、本体映射、计算语言学等应用具有重要影响.本文通过结合证据理论和知识库,提出一个新颖的度量单词语义相似度量途径.首先,借助通用本体Word Net获取证据;其次,利用散点图分析证据的合理性;然后,使用统计和分段线性插值生成基本信任分配函数;最后,结合证据冲突处理、重要分配和D-S合成规则实现信息融合获得全局基本信任分配函数,并在此基础上量化单词语义相似.在数据集R&G(65)上,对比本文算法评判结果与人类评判结果的相关,采用5折交叉验证对算法进行分析,相关达到0.912,比当前最优方法 P&S高出0.4个百分点,比经典算法re LHS、dist JC、sim LC、sim L和sim R高出7%~13%;在数据集M&C(30)和Word Sim353上也取得了比较好的实验结果,相关分别为0.915和0.941;且算法的运行效率和经典算法相当.实验结果显示使用证据理论解决单词语义相似问题是合理有效的.
王俊华左祥麟左万利
关键词:词计算统计学习证据理论
基于MYCIN推理模型的单词语义相似度量
结合MYCIN推理模型和知识库,提出一个新颖的度量单词语义相似的途径.首先借助通用本体WordNet定义并量化单词对距离与深,其次利用统计和分段线性插值技术计算规则的确定因子,然后使用证据合取公式获得综合确定因子,最...
王俊华左万利刘刚
关键词:单词语义相似度知识库
基于不确定性理论的单词语义相似度量
当前基于语料库的方法通常受制于所采用的语料库从而难以避免数据稀疏问题,而基于知识的方法虽然简单有效不使用语料库进行训练但多受人的主观意识影响。本文意图探索即简单有效又无需受制于大规模语料库的单词语义相似度量方法。结合语...
王俊华
关键词:朴素贝叶斯模型主观BAYES方法证据理论

相关作者

周志华
作品数:389被引量:1,913H指数:23
供职机构:南京大学
研究主题:神经网络 图像 强化学习算法 神经网络集成 数据挖掘
彭宇新
作品数:113被引量:186H指数:7
供职机构:北京大学
研究主题:跨媒体 视频 视频检索技术 媒体 模态
毕一鸣
作品数:127被引量:116H指数:7
供职机构:浙江中烟工业有限责任公司
研究主题:近红外光谱 烟叶 光谱 化学指标 片烟
王辉
作品数:258被引量:138H指数:8
供职机构:浙江中烟工业有限责任公司
研究主题:卷烟 烟叶 卷烟纸 近红外光谱 利群
雷钰丽
作品数:5被引量:26H指数:2
供职机构:南京大学
研究主题:相似度度量 数据挖掘 识别方法 社会网络分析 关联图