导航菜单

爬虫技术的定义(什么是爬虫技术)

导读 大家好,小皮来为大家解答以上问题。爬虫技术的定义,什么是爬虫技术这个很多人还不清楚,现在一起跟着小编来瞧瞧吧! 1、爬虫(Crawler)即w...

大家好,小皮来为大家解答以上问题。爬虫技术的定义,什么是爬虫技术这个很多人还不清楚,现在一起跟着小编来瞧瞧吧!

1、 爬虫(Crawler)即web crawler(也称为web spider、web robot,在FOAF社区中,更多的时候被称为web chaser),是一种按照一定规则自动抓取万维网信息的程序或脚本。

2、 其他不常用的名称有蚂蚁、自动索引、模拟器或蠕虫。

3、 根据系统结构和实现技术,网络爬虫大致可以分为以下几种类型:GeneralPurposeWebCrawler、FocusedWebCrawler、IncrementalWebCrawler和DeepWebCrawler。

4、 实际的网络爬虫系统通常是由几种爬虫技术结合起来实现的。

关于爬虫技术的定义,什么是爬虫技术的介绍到此结束,希望对大家有所帮助。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢:

最新文章: