An Adaptive Approach to Learning Optimal Neighborhood Kernels
文件大小: 992k
源码售价: 10 个金币 积分规则     积分充值
资源说明:这篇文章的标题是《一种自适应学习最优邻域核的学习方法》。文章描述了一种自适应的学习方法,通过这种方式可以学习到基于核的机器学习方法中的最优核。文章提出了一种名为最优邻域核学习(Optimal Neighborhood Kernel Learning, ONKL)的方法,这种方法在分类性能方面展示出了前景。ONKL假设最优核将存在于一个预先指定的核的邻域中,但是如何合理地指定这样的核仍然是一个未解决的问题。为了解决这个问题,该论文将预先指定的核作为一个额外变量,并与最优邻域核以及支持向量机的结构参数一起进行联合学习。为了避免平凡的解决方案,对预先指定的核使用参数化的模型进行了约束。文章讨论了其方法的特点,并特别强调了它的适应性。之后,通过将预先指定的核建模为一个通用的高斯径向基函数核和以多核学习(Multiple Kernel Learning, MKL)的方式进行一组基础核的线性组合两种方法来展示其应用。文章展示了在优化过程中我们的方法是一个极小极大问题,并可以高效地通过扩展水平集方法和Nesterov方法进行求解。此外,文章还给出了对方法的概率解释,并将其应用于解释现有的核学习方法,为它们的共性和差异提供了另一种视角。通过在13个UCI数据集和另外两个真实世界的实验数据集上进行的全面实验结果表明,通过联合学习过程,该方法不仅能自适应地学习最优核,而且具有优秀的分类性能。 关键词:自适应学习、最优邻域核、支持向量机、参数模型、多核学习、极小极大优化、扩展水平集方法、Nesterov方法、概率解释、核学习方法。 从这些内容中,我们可以了解到如下知识点: 1. 核方法在机器学习中的重要性:核方法是基于机器学习的一类重要算法,其中包括支持向量机(SVM)等经典模型。这些方法能够处理非线性问题,其中一个关键点是核函数(kernel function)的选取,它能够将数据映射到高维特征空间中。 2. 最优邻域核学习(ONKL)的概念:ONKL是一种学习最优核的方法,它通过假设最优核存在于一个“预先指定”核的邻域中来简化问题。这种邻域通常很小,因此需要寻找一个能够覆盖最优核的邻域。 3. 预先指定核的作用和局限性:预先指定核是基于某种先验知识或启发式规则得到的,它为搜索最优核提供了起点。然而,如何原则性地指定这样的核仍然不清楚,需要一种能够学习最优核的方法。 4. 自适应学习方法的提出:自适应学习是一种方法,它可以对系统进行自我调整,以适应变化的环境或数据。文章中提出的自适应方法可以动态地调整预先指定的核,以及与最优邻域核一起学习。 5. 参数模型在核学习中的应用:通过参数化的模型对预先指定的核进行约束,避免了平凡的解决方案,增加了模型的灵活性和适应性。 6. 多核学习(MKL)的介绍:MKL是一种特殊的学习技术,它结合多个核函数,以提升模型的性能。在文章中,通过线性组合一组基核来构造多核,这是实现多核学习的一种方式。 7. 极小极大优化问题:在核学习中,优化问题往往涉及到极小极大(min-max)问题,即在给定参数约束下最小化最大损失。文章介绍了如何通过特定的优化技术来解决这类问题。 8. 扩展水平集方法和Nesterov方法的应用:这些方法是解决优化问题的有效工具。扩展水平集方法能够将原问题转换为水平集优化问题,而Nesterov方法则是一种加速梯度下降法,可以快速找到极小极大问题的最优解。 9. 概率解释的引入:文章提供了一种新的视角,将核学习方法以概率解释的方式呈现,这有助于更好地理解不同核学习方法之间的共性和差异。 10. 实验结果与讨论:通过在多种数据集上的实验,验证了所提出方法的有效性和优越性。实验结果不仅证明了联合学习过程的有效性,也展示了该方法在分类问题上超越其他方法的能力。 这篇文章详细讨论了如何通过自适应学习来解决最优核的学习问题,提出了一种新的理论框架,并通过实验验证了该框架的有效性。这些知识对于核方法以及机器学习领域的发展具有重要的推动作用。
本源码包内暂不包含可直接显示的源代码文件,请下载源码包。