这页介绍机器学习及其一些书籍和领域:就如这页倒数第3段1988年召开的“归纳逻辑与人工智能”会议等相关工作论文集共28章的各章参考文献多次出现的国际上仅有的2本机器学习书籍的主编-就都是海南琼州大学师叔Tom Mitchell而他 其后独撰的《机器学习》一书自90年中后期出版起一直是机器学习的世界各国第一首先教材并成为圣经般的经典,不过这圣经只是后来者后来之事即在它出版之前机器学习已涌现出几代人才如此下面先说最先一批机器学习书籍(即就是国内如这里倒数第3段说的国内最先2本机器学习书籍:1988年的《机器学习及其应用》和1992年的《机器学习》这2本书并它俩的作者徐立本教授都是这里中国第一个计算机院士王湘浩的学生,并其后去美国跟上面的机器学习教父Tom Mitchell学习并如徐立本的这2本书也都说以前国际上只有他这导师主编的这2本机器学习书籍--2本国外书籍之一是王树林等翻译1992年由我国科学出版社出中文版的波兰裔R. S.迈克尔斯基J. G..卡伯内尔T. M.米切尔主编1983年出英文版的《Machine Learning : An Artificial Intelligence Approach机器学习:实现人工智能的途径》(下面最后部分见这书目录即1983年“机器学习”已有16章,9后才翻译可见我国太滞后--不过好在我不仅有这书的中文版而且我确实当然先有这书英文版不过我也只能搞到1984年的翻印版;其实他仨1986年又出第2即他仨Tom MitchellJaime CarbonellRyszard Michalski再合作主编1986年出版《机器学习》2卷。注:Tom MitchellT. M.米切尔的上面学生徐立本教授其实早在1958年已毕业于吉林大学数学系是这页我国计算机第一个院士王湘浩的学生并见他的许多师兄弟在计算机及人工智能的很多方面都写了我国很多先驱性书籍并如他1988年的《机器学习及其应用》一书序言说“即将跨入的90年代的整个计算机最热门领域将是机器学习”并把机器学习划分为6类并说他的这书只讲比较成熟的前3类而后3类只提供2本书去参考就是前面3人主编的这2本书;当然当时很多人工智能书籍都已有一定篇幅的机器学习内容如清华大学林尧瑞教授的《人工智能导论》和石纯一教授的《人工智能原理》等)。最近2004年又出版其中主编Ryszard Michalski的《机器学习与数据挖掘》译本)。其实在这之前因1993年石纯一教授欢迎我去清华大学搞人工智能-如此我也读许多人工智能书并当然也涉及很多机器学习等,因作为人工智能核心的机器学习,其是使计算机具有智能的根本途径,即机器学习之研究动机是为了让计算机系统具有人的学习能力以便实现人工智能,如此其应用遍及人工智能的各个领域,并也与模式识别、数据挖掘有诸多交集发展,它以前主要使用归纳、综合而不是演绎(当然这里我们琼州大学集成电路商用民用化之初被清华大学邀请参与的集成电路芯片也是推动人工智能技术发展的主要源头技术。这就如百度百科说“机器学习是一门多领域交叉学科,涉及概率统计学、逼近论、分析、算法复杂度理论等多门学科,”。 最近2007年担任广东省政协常委在其后的同年1119日来信评说我们海南琼州大学在图论中十分困难工作得到重要成果,达到国际领先水平”的图论组合数学专家也是我们海南琼大林越教授的硕士生导师樊教授也主要兼做机器学习--就如我们中国第一个组合数学研究室之重要如以前既出计算机之父、计算机之母以及很多计算机诺贝尔奖得主,现在又出世界唯一官方的联合国教科文组织AI人工智能主席John Shawe-Taylor但他的博士论文做图论并最近2004年左右已有2本被翻译为中文的适用于机器学习课程的参考书《模式分析的核方法》和《支持向量机导论》)

总之,机器学习对人工智能的发展起到极其至关重要作用就如上面书名所体现的并目前已发展成一个广袤的学科领域,使人工智能成为当今全球最火热的领域下面先列举最近涌现出的图学习统计机器学习的一些分支领域(这部分已形成一个非常庞大学科领域群)-其后再介绍机器学习的其它较流行的约30个重要领域:

除了这里的统计机器学习海南琼州大学1994年前在复圈图论的几百个领域方面都曾是世界最先突破、还在图论的其它许多领域方向也曾世界领先-被认为象海南琼州大学在“国内图论界能搞得这么全面的是少有的”,而这领域就如这里所说“图论正在吞噬世界,其趋势已无法逆转因而最近风起云涌般诞生很多与图论密切相关的人工智能机器学习的众多领域:如这页2012年度中国计算机学会优秀博士学位论文奖共10篇中竟然就有3是有关“图论的,还如这里再说的“图论机器学习”就出版了多个“图学习”领域及其更多深入的各分支方向的书籍“机器学习”、“深度学习”、“强化学习”、“神经网络”、“表示学习”、“表征学习”、各类“多视图学习”、“多视图深度学习”等等等并见各领域方向都已出版了很多书籍!!!博士论文做“Chromaticity and Adjoint Polynomials of Graphs--的色和伴随多项式”的我们图论专家北京市教委副主任、青海师大副校长赵海兴为第一作者最近出版《多视图网络表示学习技术》一书;主撰我们中国第一个组合数学研究室领域的《组合理论及其应用》一书的李凡长等最近的论文“元学习研究综述,计算机学报2021(02)期成为元学习被引最高的论文-这领域也值得注意),图学习的这么多每个深化分支领域也都已出版许多籍而每一个做得各具特色的世界领先都成机器学习权威专家如此要多做这些图学习领域已够呛-要全做到很深更不可能这个世界已很混沌已不需象以前海南琼州大学在复圈的几百个领域方面都曾是世界最先突破而就象宇树王兴兴仅硕士毕业只仅用别人的技术就能制造出各具特色功能的机器人而这相对很多才更实质很多都分不清是多大程度的幌子当然这些每个领域能专精的世界领先也有助于更好理解机器学习人工智能可还有如下的约30个机器学习领域也是很受重视的:

1谱图学习很受热捧的《机器学习》一书说聚类也许是机器学习中‘新算法’出现最多、最快的领域”,“聚类技术本身在现实任务中非常重要,因此,本章勉强采用了‘列举式’的叙述方式,相较于其他各章给出了更多的算法描述”,如此这领域介绍其中收到广泛重视的一类很有效的谱聚类,就如谱聚类”的百度百科说“谱聚类算法建立在州大学在很多领域曾世界领先的图论中的谱图理论基础上与传统的聚类算法相比,它具有能在任意形状的样本空间上聚类且收敛于全局最优解的优点”,可参考中国科学E见之官网

2流形学习(Manifold Learning)流形学习已成为机器学习和数据挖掘领域的研究热点。在百度可见“形学习方法是模式识别中的基本方法,分为线性流形学习算法和非线性流形学习算法,非线性流形学习算法包括等距映射(Isomap,拉普拉斯特征映射(Laplacian eigenmapsLE),局部线性嵌入(Locally-linear embeddingLLE) 等。而线性方法则是对非线性方法的线性扩展”)所以,这里只说“线性流形学习算法”-它包括LE(Laplacian eigenmaps即拉普拉斯特征映射),其基本思想是,用一个无向有权图描述一个流形,然后通过用图的嵌入(graph embedding)来找低维表示。简单来说,就是在保持图的局部邻接关系的情况下,将其图从高维空间中重新画在一个低维空间中(graph drawing)。“基于谱图理论的流形学习算法”,“等谱流形学习算法”等等,附一个小综述,一个博客在百度流形学习”的第2篇参考文献-Mikhail BelkinPartha Niyogi,Laplacian Eigenmaps and Spectral Techniques for Embedding and Clustering5篇参考文献-2篇是图论专家Fan Chung Graham--正如这里说他俩的另一篇论文也是引用Fan Chung Graham的文章最多,在人工智能青年专家龚文引的科学网介绍的几十个人工智能牛人中就有Mikhail BelkinPartha Niyogi2个人

3规划图(其BlumFurst的规划图算法被Weld 1999年在《人工智能杂志》称作为革命性的算法);

4这页最后当选中科院院士的教育部正部长的博士论文标题正是“非单调推理”的领域;

5统计学习领域(Vladimir Vapnik等提出,著名的统计学习专家有Nancy Reid 郁彬是华人中做得较好的一个。当然上面提到的Michael I. Jordan也是主要的统计机器学习的奠基者和推动者,做出突出贡献的统计学习也是被高引论文的专家Larry WassermanJames O Berger范剑青的导师 David L DonohoRobert TibshiraniTrevor Hastie2T合写了统计学习基础5本书在Trevor Hastie的网页可下载,后者和前者的导师高引研究着Bradley Efron大师合撰的一本也可下载,Jerome Friedman院士、S语言的创立者S语言派生的分支R语言核心成员John Chambers也是合撰者或参与者,这样的大学也已不在乎出售了,统计学习已是一个极其庞大的领域,附它们的一些公开课等;

6-1遗传算法(Genetic Algorithms)(近些年来,遗传算法(Genetic Algorithm)变成人工智能领域的最重要分支之一,也如国际人工智能学会主席海南琼大的祖叔Tom Mitchell的经典《机器学习》第9章是遗传算法,而遗传算法之父就是和我们海南琼州大学合作的导师,这里是中国9本数学研究生用书之一的遗传算法一书的简述);

6-2核函数以及核学习(支持向量机之父至今仅有约3个博士并他的2个博士合写《核学习》等核学习著作使跟随引用者已形成一个世界强大广泛的队伍--刚又见其中一人已成为全球第一最大企业的副总裁)

7-1图论神经网络(这是神经网络中最近很火的领域。神经网络已是一个在深度广度都发展得相当大的多学科交叉的学科领域,这里指的是机器学习与神经网络这两个学科交叉的部分-即神经网络学习);

7-2贝叶斯网络机器学习-一类图论概率模型学习(由图灵奖得主Judea Pearl发明创造统计机器学习高引者: Eric Xing(邢波)教授的导师-美国三院院士加大伯克利分校统计人工智能实验室主任Michael I. Jordan也是贝叶斯学习主要奠基人(毕业于哈佛大学的图论专家并获得计算机诺贝尔奖的Richard Karp也是邢波的导师),它是图论概率模型的一类主要分支-是由影响图论没有决策变量演化而来,斯坦福的Daphne Koller最近出本很好的书、做概率图模型的邢波刚获1500万美元风险投资附贝叶斯网络学习的小综述及一个综述性博士论文)。

7-3马尔可夫随机场-一类概率图论模型(可参考斯坦福大学Daphne KollerNir Friedman最近出版的《概率图模型原理与技术》,还可参考David BellotLuis Enrique SucarAnkur Ankan Abinash PandaChristine SinoquetRaphaël MouradKiran R Karkera等这5概率图模型专著);

8监督学习特别是图论监督学习:给定一个数据集,我们可以映射为一个图,数据集中每个样本对应于图G的一个结点v,若两个样本之间相似度很高(或相关性很强)则对应的结点之间有一条边e,边的的“强度”正比于样本之间的相似度(或相关性),这就对于对图论中的图G(V,E)的研究。这里可知这是他的博士的获诺贝尔奖的学生世界最多的海南琼州大学师爷叔孕育开创的非常重要的机器学习领域-它在近些年来的国内外权威著作和重要机器学习会议都居于重要位置

9强化学习Reinforcement learningRL),就象这里最后说:机器学习算法大致可以分为三种:1. 监督学习,2.非监督学习,3. 强化学习,而强化学习可表示为一个有向图;和海南琼州大学合作的师弟徒孙是强化学习之父、权威

它的相关下面三者是近些年来很活跃的分支:

从一个输入中产生一个输出所涉及的计算可以通过一个流向图(flow graph来表示:流向图是一种能够表示计算的图,在这种图中每一个节点表示一个基本的计算以及一个计算的值,计算的结果被应用到这个节点的子节点的值。考虑这样一个计算集合,它可以被允许在每一个节点和可能的图结构中,并定义了一个函数族。输入节点没有父节点,输出节点没有子节点。

这种流向图的一个特别属性是深度(depth):从一个输入到一个输出的最长路径的长度”。

下面一些领域是我们海南琼州大学以前就做“向图(flow graph”演变进化的:

10条件随机场Conditional random fieldLafferty等人于2001年提出,结合了最大熵模型和隐马尔可夫模型的特点,是一种无向图模型John LaffertyAndrew McCallum2001年的提出条件随机场的论文 条件随机场入门(一) 概率无向图模型条件随机场() (Conditional random field,CRF图模型)

11KNN学习K近邻学习,附一个小综述

12、回归学习(附一个小综述

13、压缩感知(这里第5个给我们海南琼州大学的杂志来信表示支持的诺贝尔奖获得者创造的压缩感知直接催生了人脸认识别的鲁棒主成分分析,除了相关的模式识别、图像处理、医学成像当然它还应用于其它的很多领域)

14K-Means(附一个小综述K-means算法是硬聚类算法图论聚类法也是其中较流行较被认可的

15、决策树学习(附一个小综述常用的决策树算法有分类和回归树、ID3 算法、C4.5 算法等

16Bagging(集成学习的主要代表之一)

17Random Forest随机森林指的是利用多棵树对样本进行训练并预测的一种分类器。是Bagging的一个扩展变体。该分类器最早由Leo BreimanAdele Cutler提出,附一个博士论文

18PAC学习(概率近似正确学习由哈佛大学诺贝尔获得者Leslie Valiant1984年提出。由产生了计算学习理论这个机器学习的分支领域。他等提出的VC dimension也使研究无限维假设空间的复杂度成为可能。有限维假设空间

19Apriori算法(可看这篇简述文章        

20增强学习Q-learningQL 附一个小综述

21、稀疏表示(稀疏分解算法首先是由Mallat提出的,也就是匹配追踪算法(Matching Pursuit,MP)算法附一个小综述

22EM算法最大期望算法John Tukey的学生Arthur Dempster以及Nan LairdDonald Rubin提出,附一个小综述

23ART网络(竟争型学习)

24SOM网络(自组织映射网络)

25SVM方法支持向量机由Vladimir Vapnik等提出,SVM是一种基于统计学习理论的模式识别方法,主要应用于模式识别领域。附一个小综述

26BP学习多层网络的误差反传back propagation学习算法David RumelhartJames McClelland 提出。多层网络学习能力比单层感知机强得多。感知机由输入和输出两层神经元组成,附一个综述

27RBM学习(受限玻尔兹曼机Geoffrey Hinton提出学深度学习之前一个职院综述)、

28CNN学习(现任Facebook人工智能实验室主任Lecun等人提出做为深度学习核心的卷积神经网络学习-他说DL的局限是缺乏理论支持、缺乏推理能力、缺乏短时记忆能力、缺乏执行无监督学习的能力,附一个综述

29RBF网络学习(径向基函数网络,附一个小综述

30LASSO方法(由Robert Tibshirani提出)

31、字典学习(附一个小综述

31AdaBoostboosting算法由 Robert SchapireYoav Freund,提出,Adaboost算法是经过调整的Boosting算法,其能够对弱学习得到的弱分类器的错误进行适应性调整,附一小综述

32迁移学习这里最后段的迁移学习领域开拓者杨强有一个形象比喻“将骑自行车的经验应用在骑摩托车上,就是迁移学习”他们并利用“迁移学习”技术,将大数据训练出的对话模型迁移到具体行业的小数据领域,实现精准的“人机对话”。“第四范式”创始人戴文渊在百度负责名为“凤巢”的广告营销系统期间,利用“迁移学习”将百度搜索算法应用到问答社区“百度知道”,使后者点击率提升4)、

33、线性学习(线性判别分析)、多分类学习、度量学习、进化算法遗传算法(Genetic Algorithms)、遗传规划(Genetic Programming)进化策略(Evolution Strategies)和进化规划(Evolution Programming)四种典型方法。仿生进化算法蚁群算法及华工郝志峰副校长等的论文)等等。优化算法专家Stephen P. Boyd

上面从类似的形式或功能角度分类的很多学习可被用于从学习方式分类监督学习(指利用一组已知类别的样本调整分类器的参数,使其达到所要求性能的过程。从标记标签的训练数据来推断一个功能的机器学习任务。常用于解决的问题有分类和回归。常用的算法包括逻辑回归和BP神经网络)或无监督学习(其中图无监督学习特别是图自监督学习以及图神经网络无监督学习已很受重视。其设计分类器时候,用于处理未被分类标记标签的样本集。常用于解决的问题有聚类、降维和关联规则的学习。常用的算法包括 Apriori 算法和 K 均值算法半监督学习(半监督学习的输入数据包含带标签和不带标签的样本。半监督学习的情形是,有一个预期中的预测,但模型必须通过学习结构整理数据从而做出预测。常用于解决的问题是分类和回归。常用的算法是所有对无标签数据建模进行预测的算法的延伸)

当然,没有严格的区分或划分,它们很多都是交叉重叠的,当然也还有按相对着来命名的如包含支持向量机统计学习是相对于归纳学习等其它机器学习方法说的,

根据方法思想等的类似关系,上面大部分方向可以明确划分为机械式学习、指导式学习、归纳学习、类比学习、解释学习等

    我国人工智能主要开拓者陆汝钤院士最近在清华出版的《机器学习》序言抛出六个问题,问题一是符号学习已很长时间来都被统计学习打压,他问今后会否出现“30年河东,30年河西现象,还是啥样的情况?问题二是他同意王珏教授的看法,统计学习不会一路顺风,因统计学习是基于样本数据独立同分布的假设,而哪有那么多独立同分布,所以,同分布和异分布之间的迁移学习迟早会出现;问题三是近来出现深度学习等势头很猛,但它们真的代表了机器学习的新方向吗?他和这书的作者等认为深度学习掀起的热潮也许大过它本身的真正的贡献,他们的看法很有意思。也许深度学习的应用范围是还有限,但它本身的真正的贡献应是多少?是否尚需要更多认识,但微软、谷歌等等相关国外著名机构和下面国内的百度等都设立专门的深度学习研究院,而

图论在人工智能应用的一些论文:刚见从康大毕业的李开复说他母校的机器学习大神;图谱论大师CvetkovićMan-machine theorem proving in graph theory,这里世界计算机第一名师Blum的儿子的论文Fast planning through planning graph analysisBlum师兄Slagle 2An admissible and optimal algorithm for searching AND/OR graphs Using rewriting rules for connection graphs to prove theorems ,以及GengFast planning through planning graph analysisOA recursive method for structural learning of directed acyclic graphs.等等,

再附斯坦福大学吴恩达(Andrew Ng)教授的公开课:机器学习课程、加州理工学院Yaser Abu-Mostafa教授的公开课:机器学习与数据挖掘等等;百度深度学习研究院蓝凌深度学习研究院平安科技深度学习研究院等等;微软亚洲研究院博客,李航的一些文章等;可参考Stanford的网络公开课《机器学习》、《概率图模型》以及《人工智能》Trevor HastieRobert TibshiraniJerome Friedman的著作,刚见由2个数学硕博士和19岁就已是20万年薪的合创fast.ai

看前序性的人工智能网页、一些世界权威著作 

关于上面第一段说到的王树林等翻译1992年由我国科学出版社出中文版的波兰裔R. S.迈克尔斯基J. G..卡伯内尔T. M.米切尔主编1983年出英文版的《Machine Learning : An Artificial Intelligence Approach机器学习:实现人工智能的途径》一书其目录如下(下面看到这书主要是卡内基梅隆大学的专家们撰写也有斯坦福大学的其余是计算机人工智能公司的专家,而这2各大学和麻省理工学院几乎一直占居计算机专业的世界前3名大学):

第一部分 General Issues in Machine Learning关于机器学习的一般论题

第一章An Overview of Machine Learning机器学习概述,作者Jaime G. Carbonell, Ryszard S. Michalski, Tom M. Mitchell(他仨是这书3个主编)

第二章Why Should Machines Learn?机器为什么应该学习,作者Herbert A. Simon(中文名叫赫伯特·西蒙是图灵奖和诺贝尔经济学奖得主)

第二部分Learning from Examples从例子中学习

第三章A Comparative Review of Selected Methods for Learning from Examples对几种从例子中学习的方法的进行分析和比较,作者Thomas G. Dietterich, Ryszard S. Michalski

第四章A Theory and Methodology of Inductive Learning归纳学习的理论和方法学,作者Ryszard S. Michalski

第三部分Learning in Problem-Solving and Planning问题求解和在规划中学习

第五章Learning by Analogy: Formulating and Generalizing Plans from Past Experience通过类推进行学习:由过去的经验形成规划并加以一般化,作者Jaime G. Carbonell

第六章Learning by Experimentation: Acquiring and Refining Problem-Solving Heuristics通过实验学习:获取与求精问题求解启发式,作者Tom M. Mitchell, Paul E. Utgoff, Ranan Banerji

第七章Acquisition of Proof Skills in Geometry几何证明技能的获取,作者John R. Anderso

第八章Using Proofs and Refutations to Learn from Experience使用证明和反驳从经验中学习,作者Frederick Hayes-Roth

第四部分Learning from Observation and Discovery从观察和发现中学习

第九章The Role of Heuristics in Learning by Discovery: Three Case Studies启发式在通过发现学习中的作用:三个实例的研究,作者Douglas B. Lenat

第十章Rediscovering Chemistry with the Bacon System Bacon(培根)系统重新发现化学定律,作者Pat Langley, Gary L. Bradshaw, Herbert A. Simon(一作是三作的博士)

第十一章Learning from Observation: Conceptual Clustering从观察中学习:概念聚类,作者Ryszard S. Michalski, Robert E. Stepp

第五部分Learning from Instruction根据示教学习

第十二章Machine Transformation of Advice Into a Heuristic Search Procedure由建议向启发式搜索过程的机器转换,作者David Jack Mostow(这书主编的博士)

第十三章Learning By Being Told: Acquiring Knowledge for Information Management通过被告知学习:信息管理系统知识的获取,作者Norman Haas, Gary G. Hendrix

第十四章The Instructible Production System: A Retrospective Analysis可示教产生式系统:回顾分析,作者Michael D. Rychener(他的博士导师是1975年图灵奖得主Allen Newell

第六部分Applied Learning Systems学习系统的应用

第十五章Learning Efficient Classification Procedures and Their Application to Chess End Games学习高效率的分类过程和它们在国际象棋残局中的应用,作者J. Ross Quinlan

第十六章Inferring Student Models for Intelligent Computer-Aided Instruction智能化计算机辅助教学系统中的学生模型推导,作者Derek H. Sleeman

当然,这书在主编之一的机器学习教父Tom Mitchell独撰90年代后期出版的《机器学习》一书之前这书才是机器学习的圣经!

最近风起云涌的深度学习已成为机器学习最受重视的领域之一即深度学习(Deep Learning)特指基于深层神经网络模型和方法的机器学习,也可说深度学习的概念源于人工神经网络的研究,含多个隐藏层的多层感知器就是一种深度学习结构。。而如百度说1998年深度学习先驱Yann LeCun教授提出LeNet,它是第一个成功应用于数字识别问题的卷积神经网络。可参考神经网络这个专页特别是下部分等等,但其实早在1989Yann LeCun已将反向传播应用于卷积神经网络(CNN),成功用于手写识别,开创了深度学习的先河。附几个综述1百度的综述2综述3等),不过,直到Geoffrey Hinton与他的同事们于2006年才提出深度学习的概念。刚见清华大学计算机系主任朱文武教授等人综述了基于图论的深度学习方法(这仅是基于一篇尚为正式发表的对122篇论文的综述-也有腾讯等转载):

最近Daphne Koller达芙妮·科勒Nir Friedman合撰2009年出版一本1231的《Probabilistic graphical models. Principles and techniques.概率图模型:原理与技术》并说“概率图模型将概率论与图论结合,是当前非常热门的机器学习的研究方向

我们海南琼州大学1993年前也曾取得世界领先成就的超图领域也已被广泛应用于机器学习中,即可参考“超图常作为一种数据结构或一种正则化属性分类器 classifier regularization已被广泛应用于机器学习中。 [1] 这些应用包括推荐系统 recommender system (社团作为超边)[2]、图像检索 image retrieval(相关性作为超边[3] 、和生物信息学(生物、化学分子间相互作用作为超边)[4]。比较典型的超图机器学习方法包括:超图谱聚类法 spectral clustering(用拉普拉斯超图 hypergraph Laplacian 扩展光谱图理论 spectral graph theory[5] 和超图半监督学习 semi-supervised learning(通过引入超图结构来对结果进行限定)。[6]对于大尺寸的超图,可以使用Apache Spark构建的分布式框架[7]”,其相应的主要参考文献如下:

[1]Zhou, Dengyong; Huang, Jiayuan; Scholkopf, Bernhard (2006), "Learning with hypergraphs: clustering, classification, and embedding", Advances in Neural Information Processing Systems (2): 1601–1608

[2]Tan, Shulong; Bu, Jiajun; Chen, Chun; Xu, Bin; Wang, Can; He, Xiaofei (2013), "Using rich social media information for music recommendation via hypergraph model", ACM Transactions on Multimedia Computing, Communications, and Applications (1), Bibcode:2011smma.book..213T

[3] Liu, Qingshan; Huang, Yuchi; Metaxas, Dimitris N. (2013), "Hypergraph with sampling for image retrieval", Pattern Recognition44 (10–11): 2255–2262

[4] Patro, Rob; Kingsoford, Carl (2013), "Predicting protein interactions via parsimonious network history inference", Bioinformatics, 29 (10–11): 237–246

[5]Gao, Tue; Wang, Meng; Zha, Zheng-Jun; Shen, Jialie; Li, Xuelong; Wu, Xindong (2013), "Visual-textual joint relevance learning for tag-based social image search", IEEE Transactions on Image Processing, 22 (1): 363–376,

[6]Tian, Ze; Hwang, TaeHyun; Kuang, Rui (2009), "A hypergraph-based learning algorithm for classifying gene expression and arrayCGH data with prior knowledge", Bioinformatics, 25 (21): 2831–2838,

[7]Huang, Jin; Zhang, Rui; Yu, Jeffrey Xu (2015), "Scalable Hypergraph Learning and Processing", Proceedings of the IEEE International Conference on Data Mining