顾宏
开通时间:..
最后更新时间:..
点击次数:
论文类型:期刊论文
发表时间:2016-05-15
发表刊物:计算机研究与发展
收录刊物:EI、PKU、ISTIC、CSCD
卷号:53
期号:5
页面范围:1053-1062
ISSN号:1000-1239
关键字:偏标记学习;最大值损失函数;凝聚函数;弱监督学习;分类精度
摘要:在弱监督信息条件下进行学习已成为大数据时代机器学习领域的研究热点,偏标记学习是最近提出的一种重要的弱监督学习框架,主要解决在只知道训练样本的真实标记属于某个候选标记集合的情况下如何进行学习的问题,在很多领域都具有广泛应用。最大值损失函数可以很好地描述偏标记学习中的样本与候选标记间的关系,但是由于建立的模型通常是一个难以求解的非光滑函数,目前还没有建立基于该损失函数的偏标记学习算法。此外,已有的偏标记学习算法都只能处理样本规模比较小的问题,还没看到面向大数据的算法。针对以上2个问题,先利用凝聚函数逼近最大值损失函数中的 max(?)将模型的目标函数转换为一个光滑的凹函数,然后利用随机拟牛顿法对其进行求解,最终实现了一种基于最大值损失函数的快速偏标记学习算法。仿真实验结果表明,此算法不仅要比基于均值损失函数的传统算法取得更好的分类精度,运行速度上也远远快于这些算法,处理样本规模达到百万级的问题只需要几分钟。