基于Python的数据爬虫的设计与实现.docx

基于Python的数据爬虫的设计与实现.docx

  1. 1、本文档共6页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

?

?

基于Python的数据爬虫的设计与实现

?

?

摘要:本文针对互联网的海量数据信息查找、搜索繁琐的问题,提出通过网络爬虫的理念,模仿人的过程来帮助人们查找更有价值的数据信息,节约时间,提高工作效率。并针对网络爬虫的概念,工作原理,以及系统分析设计与实现进行了详细的分析和讨论,并提出行之有效的实现方案。

关键词:python;爬虫系统;设计;实现

中图分类号:TP312.1??文献标识码:A??文章编号:1007-9416(2020)10-0000-00

当代万维网和互联网技术发展迅猛,海量数据让人们的工作和生活反而变得繁琐,为了更好的找到对我们有利用价值的数据和信息,使用手动操作会过于繁琐。如在浏览微博网站时,发现很多评论比较有值得我们分析的地方,需要下载到本地,为此通过网络爬虫的理念,模仿人来帮助人们查找数据,减轻搜索时间,提高工作效率。

1网络爬虫

网络爬虫其实就是模仿人来对我们想要访问的网页内容进行访问,模仿人来获取我们需要的数据,并将这些数据下载并保存到我们想要存放的地方,有时我们需要获取的数量很庞大而依靠我们自己进行操作就会显得很繁琐,所以我们需要用到爬虫来获取大量的数据[1]。

本网络爬虫设计是一个能够对网页实现自动提取的程序,在搜索引擎中,从万维网上它能为其下载网页,也是组成搜索引擎的重要部分。本软件由Python语言进行开发,并采用已有的比较成熟的requests模块、pandas模块对指定新浪微博评论的获取以及进行简单的分析,将我们所需要的数据下载到本地,并将我们获得的数据以TXT和Excel的形式更加清晰的呈现出来。

网络爬虫(webcrawler)又称为网络蜘蛛(webspider)或网络机器人(webrobot),另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或蠕虫,同时它也是“物联网”概念的核心之一。网络爬虫本质上是一段计算机程序或脚本,其按照一定的逻辑和算法规则自动地抓取和下载我们所需要的万维网的网页,是搜索引擎的一个重要组成部分。网络爬虫类似于一个搜索引擎来模仿人浏览网页是的状态,并将我们需要获取到的内容下载并保存下来。网络爬虫一般是根据预先设定的一个或若干个初始网页的URL开始,然后按照一定的规则爬取网页,获取初始网页上的URL列表,之后每当抓取一个网页时,爬虫会提取该网页新的URL并放入到未爬取的队列中去,然后循环的从未爬取的队列中,取出一个URL再次进行新一轮的爬取,不断的重复上述过程,直到队列中的URL抓取完毕,或者达到其他的既定条件,爬虫才会结束。

2网络爬虫模型的分析与设计

2.1模型分析

首先建立URL任务列表,即开始要爬取的URL。由URL任务列表开始,根据预先设定的深度爬取网页,抓取网页的过程中,不断从当前的页面上抽取新的url放入队列中,直到满足一定的停止条件。同时判断URL是否重复,按照设定爬取的微博内容搜索页面,然后对页面进行分析,并提取我们所需要数据的相关URL,最后将所得URL返回任务列表[1]。之后将任务列表中URL重新开始爬取,从而使网络爬虫进行循环运行。

2.2概要设计

确认了需要爬取的网站之后,下一步就是使用requests模块对获取到的url对应的网页内容进行抓取。首先需要遍历整个网页的Html代码,寻找我们需要下载的信息,包括评论者名称,评论人的微博主页链接,评论的内容,评论的时间,点赞数回复数以及我们爬取的微博链接,将其中的评论者的名称,评论的内容还有爬取的微博链接生成一个TXT的文件,并将这个文件使用pandas中的DataFrame方法进行一个分析,将其他所有爬取到的内容提取出来使用openpyxl方法将所爬取到的所有内容导出到Excel并保存在Excel里面[2]。

2.3程序流程设计

程序流程图主要用来将程序在计算机上运行的具体步骤用图形来表示,程序流程图如图1所示。

3详细设计与实现

3.1目标网站URL

因为网页端新浪微博的反爬虫措施特别严厉,所以我们采取爬取相对难度较小反爬虫措施不那么严厉的手机端新浪微博,目标网站的url地址为:“https:///”。

为了更加有效的找到关键字对应的信息,本项目中所有的URL不仅仅是目标网站的URL。由于遍历整个网站需要消耗更多的资源,也并不能很好的体现Python的优势,更是添加了开发的难度,选择使用目标网站论坛自身的搜索板块的URL,作为程序读取的内容。这样既可以降低工作量,也可以更加方便的抓取相关的信息。后续需要爬取其他微博下面的评论我们只需要将“https:///detail/***********”中的*****部分更换为我们需要爬取的相应的微博ID即可[3]。目标网站的URL地址如图2所示。

3.2爬取模块

Requests是用python语言基

文档评论(0)

有志者事竟成 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:7114163151000053

1亿VIP精品文档

相关文档