基于语义扩展的网络信息监管

出版时间:2012-3  出版社:华中师范大学出版社  作者:张茂元  页数:158  

内容概要

  本书在查阅相关参考文献和分析国内外有关信息监管模式及技术的基础上,围绕基于语义扩展的网络信息监管展开讨论,从网络信息监管机制、网页分类、概念扩展、纠错扩展、主动机制等方面进行研究。这些研究工作试图把信息学科的语义扩展技术有机地融入到社会学科的网络信息监管机制中,从概念扩展和纠错扩展的独特角度探索语义搜索技术,来解决不拘泥于字面形式和不拘泥于错词形式的扩展检索问题,以支持基于语义的网络信息监管机制。

作者简介

  张茂元,华中师范大学计算机系副系主任、副教授、博士后、硕士生导师,主持国家自然科学基金、国家语委“十一五”科研项目、中国博士后科学基金、湖北省自然科学基金、武汉市青年科技晨光计划项目等课题近10项,以第一作者在Information
Sciences(Elsevier Science's
Journal)、《软件学报》、《计算机研究与发展》等国内外权威杂志和IEEE.ACM.LNCS重要国际学术年会上发表学术论文近20篇,以第一发明人获得2项国家发明专利授权和1项国家软件著作权,以第一人员获2项省市级学术奖励,主要研究方向为信息检索、自然语言处理和人工智能

书籍目录

1 绪论
1.1 问题背景
1.2 国内外研究现状
1.2.1 监管方式
1.2.2 监管技术
1.2.3 语义搜索技术
1.3 总体框架
1.4 本书的组织结构
2 基于语义的网络信息监管机制
2.1 问题的提出
2.2 网络信息的复杂性分析
2.2.1 网络信息资源系统
2.2.2 网络信息传播
2.3 现有的网络信息监管模式
2.3.1 公共物品理论
2.3.2 政府管理
2.3.3 第三部门理论
2.3.4 行业自律
2.3.5 社会监督
2.3.6 技术对抗
2.4 基于语义的信息监管机制
2.4.1 辅以语义分析技术的管理
2.4.2 基于语义的技术对抗
2.5 本章小结
3 基于变调整学习规则的网页分类
3.1 问题的提出
3.2 现状分析
3.3 网页分类系统
3.3.1 数据预处理
3.3.2 分类
3.3.3 参数设定
3.4 参数学习
3.4.1 通用的参数学习规则
3.4.2 参数学习算法
3.4.3 通用参数学习规则的收敛性
3.5 变调整规则的单参数学习
3.5.1 单参数学习算法的收敛性
3.5.2 收敛速度分析
3.5.3 变调整规则的单参数学习算法
3.6 实验结果
3.7 本章小结
4 基于概念扩展的信息搜索
4.1 问题的提出
4.2 现状分析
4.3 元搜索的性能分析
4.3.1 元搜索系统
4.3.2 性能分析
4.4 基于概念扩展的搜索模型
4.5 算法
4.5.1 基于知网的概念扩展
4.5.2 基于概念的扩展词过滤
4.5.3 基于概念扩展的结果排序
4.6 实验
4.6.1 查全率的测试
4.6.2 查准率的测试
4.7 本章小结
5 基于纠错扩展的网页信息提取
5.1 问题的提出
5.2 现状分析
5.3 基于纠错扩展的信息提取
5.4 基于相关过滤的网页特征词提取
5.4.1 网页特征信息的数学形式表示
5.4.2 一维空间域的网页信息过滤定理
5.4.3 网页信息的相似性分析
5.4.4 基于相关过滤的特征词提取模型
5.5 基于容错的词扩展匹配
5.5.1 义素网络
5.5.2 义素相似度函数
5.5.3 相似度函数的相关定理
5.5.4 参数β的影响效果分析
5.5.5 基于义素的词扩展匹配
5.6 实验结果
5.7 本章小结
6 基于Agent的分布式主动数据库系统框架
6.1 问题的提出
6.1.1 主动机制研究的必要性
6.1.2 主动数据库研究的必要性
6.2 现状分析
6.3 面向对象方法与Agent技术
6.3.1 主动数据库技术
6.3.2 分布数据库中的面向对象方法
6.3.3 面向对象方法的局限性
6.3.4 面向Agent技术
6.4 面向Agent的分布主动数据库系统框架
6.5 部分核心算法
6.5.1 扩展事件规则图EE-RG方法
6.5.2 扩展事件规则图方法的终止性分析
6.5.3 改进的Coffman-Graham并行算法
6.5.4 改进的Coffman-Graham算法的并行效果分析
6.5.5 改进Coffman-Graham算法的调度例子分析
6.6 本章小结
7 基于自然语言的全文检索系统
7.1 系统背景
7.2 系统特点
7.3 系统方案
7.3.1 总体框架
7.3.2 自然语言处理模块
7.3.3 检索模块
7.3.4 结果集处理模块
7.4 本章小结
8 基于概念的智能中文问答系统
8.1 系统背景
8.2 系统特点
8.3 系统方案
8.3.1 总体框架
8.3.2 问题预处理模块
8.3.3 候选问题集提取模块
8.3.4 句子相似度计算模块
8.4 本章小结
参考文献
基金资助目录
相关专利

章节摘录

  网络目录是一个适合于浏览网页的有用工具,因此很多搜索工具把搜索引擎和网络目录结合在一起。为了实现这个结合,一个传统方法(如Yahoo!)是每天由人工把网页分到相关主题结构中。从文档分类的准确性来看,人工分类要优于自动分类。但是由于人工分类非常费时,效率过低,是一个耗时且不易于同步更新的工作,这就很难应付日益膨胀的网络信息。  网页信息有以下几个特点:网页信息的数量巨大,品种多样;网页信息的变化频繁,稳定性差;网页信息来源范围广泛,资源分布分散;由于任何人、任何单位都可以把自己制作的网页发布到互联网上,因此网页的写作风格、内容变化很大。  对于Web上的海量信息而言,单纯使用人工分类代价高昂而且是不现实的。因此为了能够有效地组织和分析海量的Web信息,人们希望能够按照其内容实现对网页的自动分类。目前,网页自动分类技术在数字图书馆、主题搜索、个性化信息检索、搜索引擎的目录导航服务、信息过滤、主动信息推送服务等领域得到了广泛应用。  综上所述,网页分类方法的研究有助于信息搜索的主题发现,从而有益于网络信息监管的有效实施。  3.2现状分析  针对网页分类这一问题,许多研究者进行了相应研究,提出一些效果较好的网页分类方法。  ……

图书封面

评论、评分、阅读与下载


    基于语义扩展的网络信息监管 PDF格式下载


用户评论 (总计0条)

 
 

 

250万本中文图书简介、评论、评分,PDF格式免费下载。 第一图书网 手机版

京ICP备13047387号-7