会漫游的网络“蜘蛛”是什么?

发布网友 发布时间:2022-04-22 08:31

我来回答

3个回答

热心网友 时间:2022-06-18 17:03

“Teleport”和“Webzip”者是网络“蜘蛛(Spider)”,或称“机器人(Robot)”。所谓“蜘蛛”,是指能够在万维网上漫游,自动获取链接文档的程序,因其行为(在万维网上爬行)酷似蜘蛛而得名。无论它们叫什么,其核心的目的都只有一个:获取那些存储在因特网上的信息。我们熟知的Yahoo、EXcite和Sohu等搜索引擎都包含Spider。
各种Spider的工作原理基本相同。设想一下您因查找某类信息而去访问万维网的情况吧。您在浏览的地址栏键入某个网址,浏览器显示出网站的主页,主页上通常列出网站内不同类别网页的链接,您点击其中可能包含目标的链接,得到下一级网页,查看这个网页,继续点击,直到发现目标。如果这个网站包含对其他网站的链接,您还可能链接到其他相关网站继续搜寻,直至找到目标为止。“蜘蛛”也要做同样的事情,不过它是自动进行的,而且可以同时运行多个线程,因而速度非常快(人工需要几小时的工作它只需几分钟甚至几秒种就完成了)。还有一个重要的区别是:“蜘蛛”通常不会像人一样去读完整的网页,它找到网页后通常只读完文件的头部,如果其中包含搜索的关键词则把网页的索引保存到分类信息数据库中,然后继续搜索。用户只要检索这个数据库就可以得到所需的信息了。

热心网友 时间:2022-06-18 17:04

网络蜘蛛即Web Spider,是一个很形象的名字。把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。网络蜘蛛是通过网页的链接地址来寻找网页,从 网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网 站所有的网页都抓取完为止。如果把整个互联网当成一个网站,那么网络蜘蛛就可以用这个原理把互联网上所有的网页都抓取下来。

——这样看来,网络蜘蛛就是一个爬行程序,一个抓取网页的程序。

热心网友 时间:2022-06-18 17:04

当“蜘蛛”程序出现时,现代意义上的搜索引擎才初露端倪。它实际上是一种电脑“机器人”(Computer Robot),电脑“机器人”是指某个能以人类无法达到的速度不间断地执行某项任务的软件程序。由于专门用于检索信息的“机器人”程序就象蜘蛛一样在网络间爬来爬去,反反复复,不知疲倦。所以,搜索引擎的“机器人”程序就被称为“蜘蛛”程序。 关键词:网络蜘蛛 起源 原理 优化

参考资料:http://ke.baidu.com/view/19137.htm

声明声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:11247931@qq.com