清华大学人工智能研究院
知识智能研究中心

「知识智能研究中心」(以下简称“知识中心”)成立于2019年1月21日,是清华大学人工智能研究院成立的首个研究中心,旨在:

(1)开展理论研究。研究支持鲁棒可解释人工智能的大规模知识的表示、获取、推理与计算的基础理论和方法;
(2)构建知识平台。建设包含语言知识、常识知识、世界知识、认知知识的大规模知识图谱以及典型行业知识库,建成清华大学知识计算开放平台;
(3)促进交流合作。举办开放的、国际化的与知识智能相关的学术活动,增进学术交流;普及知识智能技术,促进产学合作。

知识中心将以促进清华和国家知识智能研究与发展为宗旨,打造具有广泛影响力的学术研究、知识计算平台与学术交流中心。

清华大学知识计算开放平台

「XLORE」是融合中英文维基、法语维基和百度百科,对百科知识进行结构化和跨语言链接构建的多语言知识图谱,是中英文知识规模较平衡的大规模多语言通用知识图谱。

「OpenHowNet」是一个以词语的概念为描述对象,以“义原”为基本语义单位,以揭示概念与概念之间以及概念所具有的属性之间的关系为基本内容的常识语言知识图谱。

「AMiner」是一个研究者学术搜索类网站,能够为计算机科学相关领域的研究者提供更全面的领域知识和更具针对性的研究话题和合作者信息,为科研人员提供信息获取和帮助。

「THUAITR」以AMiner全球科技情报大数据挖掘服务平台为基础,聘请领域顶级专家作为顾问,采用人工智能自动生成技术,汇集而成的科技领域洞察报告。

:中英文跨语言百科知识图谱
中文结构化知识和跨语言知识链接最多
的大规模知识图谱。
聚力两大中文百科

中英文平衡的图谱
更丰富的语义关系

基于isA关系验证
多种查询接口

助力第三方使用
发展情况
XLORE 是融合中、英、法维基百科和百度百科,对百科知识进行结构化和跨语言链接构建的多语言知识图谱, 是中英文知识规模较平衡的大规模多语言知识图谱。 知识图谱以结构化的形式描述客观世界中概念、实例、属性以及它们之间丰富的语义关系。 XLORE 中的分类体系是基于群体智能建立的维基百科的Category系统。
16,284,901 实体
2,466,956 概念
446,236 关系
1亿+ 访问
160万+ 年API调用
53 国家,

113 国内城市
:科技知识挖掘平台
超过
2亿篇学术论文/专利
1.36亿科研人员
的科技智库
旨在为研究人员社交网络提供全面的搜索和数据挖掘服务。在这个系统中,我们主要关注:

(1)通过从分布式Web中提取信息为每个研究人员创建基于语义的配置文件;

(2)从多个来源整合学术数据(例如,书目数据和研究人员简介);

(3)准确搜索异构网络;

(4)从学术社交网络中分析和发现有价值的模式。
海量数据 学术图谱
130,614,292
科研人员
233,127,915
论文成果
8,795,107
知识概念
754,201,878
引用关系
通过共享不同的学术知识图谱以及它们的链接关系,希望能够造福学术界对知识图谱、学者合作关系、学术主题挖掘以及大规模学术图谱连接等领域的研究。希望设计更加智能的学术图谱连接系统,并提供相关的服务(如API),以方便更多人使用服务以及加入开放学术社区。
学术排行榜
开放学术图谱(OAG)
AI实验室
学者迁移图
会议汇总
机理创新:
网络影响力与传播建模

多尺度影响力度量模型
基于主题的关系图谱,定量且细粒度地衡量结点之间的影响
算法创新:
大规模异构网络的高效计算
计算速度提高2个数量级
在RiMOM算法的基础,设计针对大规模论文匹配的异步搜索框架
影响广泛
在线运行超过十年
220个国家和地区832万独立IP访问
年均访问量超过1100万次
科研数据下载230万次
获得奖励 国际认可
人工智能学会科技进步一等奖
北京市科技进步一等奖
联合国官方媒体报道
:基于义原的开放语言知识库
首次将知网(HowNet)核心数据开源、
世界独创基于义原的语义描述体系、
提供丰富的第三方调用接口
简介
OpenHowNet 源自在中文世界有巨大影响力的语言知识库——知网(HowNet)。知网的构建秉承还原论思想,即所有词语的含义可以由更小的语义单位构成,而这种语义单位被称为“义原”(Sememe),即最基本的、不宜再分割的最小语义单位。知网构建了包含2000多个义原的精细的语义描述体系,并为十几万个汉语和英语词所代表的概念标注了义原。 OpenHowNet 首次将知网的核心数据开源,并且开发了丰富的调用接口,实现义原查询、基于义原的词相似度计算等功能。整体包含有229,767个中英文词条, 35,202个概念以及2,196个义原。
OpenHowNet特点

首次将知网核心数据开源

点击了解知网

在线检索知网词条并展示义原结构

点击查看检索示例

提供丰富的调用接口,方便查询使用

点击了解Github项目
发展情况

229,767个中英文词条

35,202个概念

2,196个义原

构建时间近30年

:清华大学人工智能技术系列报告
以AMiner为基础,
聘请领域顶级专家作为顾问,
采用人工智能自动生成技术得到的系列报告
简介
THUAITR 以AMiner全球科技情报大数据挖掘服务平台为基础,聘请领域专家作为顾问,结合人工智能自动生成技术,以严谨、严肃、负责的态度制作发布的人工智能技术评论及人才分析。报告内容涵盖技术趋势、前沿预测、人才分布、实力对比、以及洞察情报等。 THUAITR 2018年共发布14份技术报告(主题包括:自动驾驶[基础版]、机器人、区块链、行为经济学、机器翻译、通信与人工智能、自动驾驶、自然语言处理、计算机图形学、超级计算机、3D打印、智能机器人、人脸识别、人工智能芯片),累计阅读量超过120万人次。本次将新发布“知识图谱研究报告”和“数据挖掘研究报告”。
技术优势

基于学术科研大数据

1、 基于学术科研大数据

覆盖全球1.36亿学者,2.3亿论文,数据实时更新

利用大数据分析工具集

2、 利用大数据分析工具集

领域发展趋势,知识图谱,学者地图,迁徙等可视化工具

借助人工智能编写

3、 借助人工智能编写

部分章节借助人工智能和机器学习技术自动完成

清华大学人工智能研究院知识智能研究中心成立

2019年1月21日,清华大学人工智能研究院知识智能研究中心(以下简称知识中心)成立仪式暨知识计算开放平台发布会在清华大学FIT楼举行。清华大学副校长、清华大学人工智能研究院管委会主任尤政院士,清华大学人工智能研究院院长张钹院士出席成立仪式并共同为中心揭牌。清华大学人工智能研究院常务副院长孙茂松教授主持成立仪式。

尤政院士致辞

尤政院士在致辞中指出,成立知识中心是清华大学推进人工智能发展的重要举措,也是清华大学人工智能研究院的一个里程碑事件,希望知识中心能够更好地汇聚清华大学知识智能研究力量,开展具有世界水平的基础理论研究,服务于清华与国家的人工智能发展战略。

张钹院士致辞

张钹院士代表清华大学人工智能研究院致辞。他指出知识是人类智能的重要特征,我们已经进入后深度学习时代,让计算机拥有大规模、高质量的形式化知识,是实现安全可信人工智能的重要使命,知识表示、获取、推理与计算将是新一代人工智能研究面临的核心问题。清华大学在知识智能方面有着深厚的研究积累,清华大学人工智能研究院目标是从事人工智能基础理论与方法研究,希望通过成立知识中心,打造国际一流的知识智能创新高地,推动鲁棒可解释人工智能的跨越式发展。

孙茂松教授主持仪式
尤政院士与张钹院士为知识中心揭牌
李涓子老师被聘任为知识中心主任
董振东先生被聘任为知识中心学术顾问(由董强先生代领)
知识中心成立仪式合影

知识中心是清华大学人工智能研究院设立的首个研究中心。中心将致力于知识智能相关基础理论研究和应用基础研究,建设融通语言知识、常识知识、世界知识的大规模知识图谱及典型行业知识库,建设具有国际影响力的知识计算开放平台,同时积极开展高水平国际学术交流,促进产学研深度合作。

知识中心在成立仪式上发布了体现国内领先水平的清华大学知识计算开放平台(http://ai.tsinghua.edu.cn/kirc/),内容涵盖语言知识、常识知识、世界知识和科技知识库,包括:

(1)在我国著名机器翻译专家董振东先生毕三十年之功建立的语言和常识知识库《知网》(HowNet)基础上所研制的OpenHowNet; (2)中英文跨语言百科知识图谱XLORE; (3)科技知识挖掘平台AMiner。

董强先生、李涓子教授、唐杰教授、黄民烈副教授、刘知远副教授分别介绍了知识计算开放平台本次发布的相关资源及应用案例。知识中心负责人李涓子教授表示,中心将在清华大学和人工智能研究院的支持下,以本次发布会为起点,坚持做好做强知识计算开放平台,用知识为AI赋能。

成立仪式上,还发布了基于AMiner的《清华大学人工智能技术系列报告》(THUAITR)。