搜索引擎的原理及发展前景浅析

发布时间:2023-10-24 23:20:35 作者:乱糟糟@窝窝 阅读量:3955

搜索引擎(Search Engines)就是指在WWW(World Wide Web)环境中能够响应用户提交的搜索请求,返回相应的查询结果信息的技术和系统,是互联网上的可以查询网站或网页信息的工具。它包括信息搜集、信息整理和用户查询三部分。搜索引擎的服务方式分为两种:目录服务和关键字检索服务。目录服务是由分类专家将网络信息按照主题分成若干个大类,用户可以根据分类清晰地找到自己所需要的内容。关键字检索服务可以查找包含一个或多个特定关键字或词组的WWW站点。搜索引擎是互联网的第二大核心技术,涉及到信息检索、人工智能、计算机网络、分布式处理、数据库、数据挖掘、数字图书馆、自然语言处理等多领域的理论和技术,所以具有综合性和挑战性。

1搜索引擎的发展

  1990年以前,没有任何人能实现搜索互联网的功能。互联网发展早期,信息量较少,互联网用户多为专业人士,那时查找信息要相对容易。伴随互联网爆炸性的发展,普通网络用户想找到所需的资料简直如同大海捞针,这时为满足大众信息检索需求的搜索引擎便应运而生了。所有搜索引擎的祖先,都可以追溯到1990年由蒙特利尔McGill大学学生Alan Emtage、Peter Deutsch、Bill Wheelan发明的Archie(Archie FAQ)。虽然当时World Wide Web还未出现,但因为当时网络的主要用途是传输文件,网络中的文件传输还是相当频繁。由于大量的文件散布在各个分散的FTP主机中,查询起来非常不便,因此Alan Emtage想到了开发一个可以以文件名查找文件的系统,于是便有了Archie。

  1993年,美国内华达System Computing Services大学开发了一个与Archie非常相似的搜索工具,这个搜索工具既能够检索文件也能够检索网页。

  1994年4月,斯坦福(Stanford)大学的两名博士生,David Filo和美籍华人杨致远(Gerry Yang)共同创办了超级目录索引Yahoo,并成功地使搜索引擎的概念深入人心。从此搜索引擎进入了高速发展时期。

  1998年,斯坦福大学的两位博士生Larry Page和Sergey Brin开发出了现在世界上最大的搜索引擎——Google。通过对20多亿网页进行整理,Google可为世界各地的用户提供适需的搜索结果,而且搜索时间通常不到半秒。现在,Google每天需要为世界各国用户提供1.5亿次查询服务。

  1997年10月29日,北大天网正式在CERNET上向广大Internet用户提供Web信息导航服务,它是由北大计算机系网络与分布式系统研究室开发的国家“九五”重点科技攻关项目“中文编码和分布式中英文信息发现”的研究成果,受到学术界广泛好评。

  2000年1月,两位北大校友,前Infoseek资深工程师李彦宏与加州大学伯克利分校博士后徐勇在北京中关村创立了百度(Baidu)公司。历经5年的高速发展后,在近两年时间里,百度高居全球网站流量前八名的位置,已经成为全球十大网站之一。百度每天接受着超过一亿人次来自各个方面的内容检索请求,中国9400万网民几乎每天使用1次百度。“有问题百度一下”已经成为中国网络流行语之一。

  2002年,中国搜索(原慧聪搜索)正式进入中文搜索引擎市场。在一年多的时间里,就发展为全球著名的中文搜索引擎服务商,为新浪、搜狐、网易、TOM等知名门户网站提供搜索引擎技术。慧聪搜索引擎的优势是从人工审核网站信息源和设置禁查词两个方面入手,有效地过滤了不良信息,降低了垃圾信息的含量。

2搜索引擎的工作原理

  简单的说,搜索引擎是通过从互联网上提取的各个网站的信息来建立数据库,检索与用户查询条件匹配的相关记录,然后按一定的排列顺序将结果返回给用户。根据搜索引擎提取数据的方法,可将搜索引擎系统可以分为三大类:

  2.1目录式搜索引擎:是一种网站级搜索引擎。目录式搜索引擎由分类专家将网络信息按照主题分成若干个大类,每个大类再分为若干个小类,依次细分,一般的搜索引擎分类体系有五六层,有的甚至十几层。先由程序自动搜集信息,然后由编辑员查看信息,人工形成信息摘要,提供目录浏览服务和直接检索服务。由于目录式搜索引擎的信息分类和信息搜集有人的参与,因此其搜索的准确度是相当高的,缺点是需要人工介入、维护量大、信息量少、信息更新不够及时。

  2.2机器人搜索引擎:Robot(机器人)一词大家并不陌生,Computer Robot是指某个能以人类无法达到的速度不断重复执行某项任务的自动程序。由于专门用于检索信息的Robot程序象蜘蛛(spider)一样在网络间爬来爬去,因此,搜索引擎的Robot程序被称为spider程序。搜索引擎主动派出称为蜘蛛(Spider)的机器人程序定期搜索(比如Google一般是28天),对一定IP地址范围内的互联网站进行检索,一旦发现新的网站,它会自动提取网站的信息和网址加入自己的数据库。该类搜索引擎的优点是信息量大、更新及时、毋需人工干预,缺点是返回信息过多,有很多无关信息,用户必须从结果中进行筛选。





***本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。

我要评论

网友评论


评论时间:2024-04-20 01:00:02

竭诚为广大东莞网站制作价格 客户服务php网站开发实用技术 服务

推荐阅读

 2023-12-18 22:56:45   admin

论坛版本更新提示

最新文章

 2023-12-18 22:56:45   admin

论坛版本更新提示

 2023-12-17 23:59:39   zjracxj110

小妖精美化倒计时怎么弄 小妖精美...

 2023-12-17 22:49:53   冷公子

杭州seo优化哪家最优惠?

 2023-12-17 22:22:51   五行缺钱173

SEO在国内的发展,SEOER的...

 2023-12-17 21:38:42   niede1213

帮你的网页进行升级

 2023-12-17 20:15:30   hhkj

如何成为排名第一的实践

热门阅读

 2021-01-05 22:35:01   wammmmaw

介绍金花站长工具的功能技巧

 2020-12-27 18:25:01   lll_asd

公司招聘:深圳市翕捷物流有限公司...

 2021-01-08 08:55:01   rcscwyf

网站优化的URL路径

 2021-01-07 07:30:02   wolfssss

如何三条链接就轻松做seo排名

随机文章

 2020-12-24 04:50:01   wenwen

网站优化中怎样提高用户体验度?

 2020-12-27 13:45:01   koushuiduo

网站建设决定成败的几大因素

 2020-12-27 17:10:01   小女巫

公司招聘:深圳市怡亚通供应链股份...

热评文章

 2021-07-02 02:30:01   rockmanalpha

做商城网站要以转化为主要目标

 2021-01-10 08:50:02   shuiduo

小企业网站建设,企业网站怎么建设

 2021-04-30 06:30:02   苯小孩

网站建设公司这么多,网站具备什么...

 2021-06-20 22:30:01   wandererfy

制作英文网站需要细心的地方

 2021-07-19 22:30:02   powerdream

404

  热门标签

简单站-在线就可以制作企业官网
Catfish(鲶鱼) Blog V 4.7.3