这就是搜索引擎原理(搜索引擎的原理具体可以看做三步)

前沿拓展:

这就是搜索引擎原理

搜索引擎并不真正搜索互联网,它搜索的实际上是预先整理好的网页索引数据库。

真正意义上的搜索引擎,通常指的是收集了因特网上几千万到几十亿个网页并对网页中的每一个词(即关键词)进行索引,建立索引数据库的全文搜索引擎。当用户查找某个关键词的时候,所有在页面内容中包含了该关键词的网页都将作为搜索结果被搜出来。在经过复杂的算法进行排序后,这些结果将按照与搜索关键词的相关度高低,依次排列。

现在的搜索引擎已普遍使用超链分析技术,除了分析索引网页本身的内容,还分析索引所有指向该网页的链接的URL、AnchorText、甚至链接周围的文字。所以,有时候,即使某个网页A中并没有某个词比如“恶魔撒旦”,但如果有别的网页B用链接“恶魔撒旦”指向这个网页A,那么用户搜索“恶魔撒旦”时也能找到网页A。而且,如果有越多网页(C、D、E、F……)用名为“恶魔撒旦”的链接指向这个网页A,或者给出这个链接的源网页(B、C、D、E、F……)越优秀,那么网页A在用户搜索“恶魔撒旦”时也会被认为更相关,排序也会越靠前。

搜索引擎的原理,可以看做三步:从互联网上抓取网页→建立索引数据库→在索引数据库中搜索排序。

从互联网上抓取网页
利用能够从互联网上自动收集网页的Spider系统程序,自动访问互联网,并沿着任何网页中的所有URL爬到其它网页,重复这过程,并把爬过的所有网页收集回来。

建立索引数据库
由分析索引系统程序对收集回来的网页进行分析,提取相关网页信息(包括网页所在URL、编码类型、页面内容包含的关键词、关键词位置、生成时间、大小、与其它网页的链接关系等),根据一定的相关度算法进行大量复杂计算,得到每一个网页针对页面内容中及超链中每一个关键词的相关度(或重要性),然后用这些相关信息建立网页索引数据库。

在索引数据库中搜索排序
当用户输入关键词搜索后,由搜索系统程序从网页索引数据库中找到符合该关键词的所有相关网页。因为所有相关网页针对该关键词的相关度早已算好,所以只需按照现成的相关度数值排序,相关度越高,排名越靠前。
最后,由页面生成系统将搜索结果的链接地址和页面内容摘要等内容组织起来返回给用户。
搜索引擎的Spider一般要定期重新访问所有网页(各搜索引擎的周期不同,可能是几天、几周或几月,也可能对不同重要性的网页有不同的更新频率),更新网页索引数据库,以反映出网页内容的更新情况,增加新的网页信息,去除死链接,并根据网页内容和链接关系的变化重新排序。这样,网页的具体内容和变化情况就会反映到用户查询的结果中。

互联网虽然只有一个,但各搜索引擎的能力和偏好不同,所以抓取的网页各不相同,排序算法也各不相同。大型搜索引擎的数据库储存了互联网上几亿至几十亿的网页索引,数据量达到几千G甚至几万G。但即使最大的搜索引擎建立超过二十亿网页的索引数据库,也只能占到互联网上普通网页的不到30%,不同搜索引擎之间的网页数据重叠率一般在70%以下。我们使用不同搜索引擎的重要原因,就是因为它们能分别搜索到不同的内容。而互联网上有更大量的内容,是搜索引擎无法抓取索引的,也是我们无法用搜索引擎搜索到的。

你心里应该有这个概念:搜索引擎只能搜到它网页索引数据库里储存的内容。你也应该有这个概念:如果搜索引擎的网页索引数据库里应该有而你没有搜出来,那是你的能力问题,学习搜索技巧可以大幅度提高你的搜索能力。


前两天给大家介绍了什么是搜索引擎,今天和大家分享搜索引擎的工作原理,了解搜索引擎的工作原理后,我们才能知道什么样的网站更利于被抓取并展现给广大的网民。

一、搜索引擎工作原理

搜索引擎蜘蛛程序爬行抓取网页然后扫描IP和跟踪链接,搜集新出现的网页和那些上次搜集后有改变的网页,发现自上次搜集后已不存在的网页,并把数据库中的数据更新。搜索引擎的工作原理

二、哪什么样的网站利于被抓取呢?

网页设置合理的URL链接结构和导航;还有可供网民读取的信息,如文字、图片、动画等以及规范化的URL网址结构更利于搜索引擎的抓取。搜索引擎的工作原理

搜索引擎抓取页面后会预处理并建立索引数据库,把抓取的网页分配相应的编号,提取网页文本进行分析,记录网页及关键词等信息,以表格的形式储存。对页面内容进行分析后提取相关的网页信息包含URL、编码类型、页面内容包含的所有关键词、关键词位置、生成时间、大小、与其他网页的链接关系等,主要提取用于排名处理的网页文字。

再对页面正文内容进行切词,为这些词建立索引,得到页面和关键词之间的对应关系。对页面内容进行切分,形成与用户查询条件相匹配的关键字为单位的信息列表。和预设的海量词汇的辞典中的词比较,如果有匹配的词,则为匹配。也会根据相邻的2个或者多个词出现的概率判断这两个词是否匹配。

并建立关键词索引,在切词处理后,形成关键词列表。关键词列表的每条记录包含:关键词、关键词编号、出现次数、在网页中的位置等信息。再根据一定的相关度算法进行大量复杂计算,得到每一个网页针对页面文字中及超链接中每一个关键词的相关度或者重要性,然后用这些相关信息建立网页索引数据库。

建立网页索引数据库后,再结合页面的内外因素,计算出页面与某个关键词的相关程度,从而得到与该关键词相关的页面索引列表,从而确定搜索排名。

用户在搜索引擎中输入查询条件后,搜索引擎就在数据库中检索相关的信息,并将检索结果返回给用户。搜索引擎在往用户端返回数据的时候,并不是随机的,而是按照一定的计算方法进行排序,如搜索匹配和相关性计算等。

今天的总结就到这里了希望对大家有所帮助,如有补充的童鞋可以提出相关的意见,大家一起共同进步。

拓展知识:

这就是搜索引擎原理

靠广告啊
点击率上来了,就会有很多广告上找到你,还有一些网站也会花钱让你把自己的网站派到搜索第一个

这就是搜索引擎原理

搜索排名