欢迎访问 生活随笔!

生活随笔

当前位置: 首页 > 编程语言 > python >内容正文

python

python写彩票抓取_Python|爬取彩票数据

发布时间:2024/10/8 python 49 豆豆
生活随笔 收集整理的这篇文章主要介绍了 python写彩票抓取_Python|爬取彩票数据 小编觉得挺不错的,现在分享给大家,帮大家做个参考.

pyhton|爬取彩票数据

背景:作者之前看到过不少朋友介绍利用python环境来爬取彩票数据的文章,方法大致都很类似,今天我也讲一下关于传统方法解析网页获得数据,同时给大家介绍一种可能被大家忽略的方法,对于网页结构化的表的数据可以获得比较高的数据获取效率。

环境:Python3.7/MongoDB

简要说明一下爬虫的步骤:

1.选取目标网页

2.观察结构(网页结构、数据结构)

3.选用解析工具(虽然有很多朋友喜欢使用Beautyfulsoup,但是在下还是建议使用xpath,因为效率比较高一点)

4.数据的持久化(俗话说光爬数据不储存就是在耍流氓.需要考虑用什么方式储存从页面上获取的信息,Excel、MySql还是MongoDB,本例将使用MongoDB做为储存工具) 在正式开始工作之前我们来看看我们需要爬取的页面是什么样子 !

方法一:

方法一我们将直接通过常规方法对页面进行解析获取数据。下面我们通过翻页来查看网页地址都发生了些什么变化:

通过上面的观察,我们可以发现在我们翻页获取新的网页信息的时候,只有list_x这个地方发生了变化,那么我们的工作就变得简单了,我们只需要替换到list_x中x的值就可以获取到新的一页的数据了。那么我们的思路就是我们只需要解析一个网页的数据并获取,最后做个轮询,那么我们就可以获取整个网站的彩票数据了,想想就有点小激动。

那么接下来我们来看一看我们需要的数据都是放在什么样的地方,我们怎么样才能提取出来,现在观察网页结构,仔细一看也是相当的简单。我可以看到每一期的彩票信息都是放在一个tr标签对中,发现这个信息那么接下来代码工作就可以开始了。

def pare(page):

url = http://kaijiang.zhcw.com/zhcw/html/3d/list_{}.html.format(page)

r = request.get(url,timeout=5)

selector = etree.HTML(r.text)

for td in selector.xpath('//tr')[2:-1]:

yield {'开奖日期': td.xpath('./td[position()=1]/text()')[0],

'期号': td.xpath('./td[position()=2]/text()')[0],

'百': td.xpath('./td[position()=3]/em/text()')[0],

'十': td.xpath('./td[position()=3]/em/text()')[1],

'个': td.xpath('./td[position()=3]/em/text()')[2],

'单选': td.xpath('./td[position()=4]/text()')[0],

'组3': td.xpath('./td[position()=5]/text()')[0],

'组': td.xpath('./td[position()=6]/text()')[0],

'销售金额(元)': td.xpath('./td[position()=7]/strong/text()')[0]

}

简单解释一下上面的代码,上面我们使用到的解析网页的工具是xpath,先不说解析的效率,语法个人觉得比Beautyfulsoup好一些,当然这因人而异,也有不少人觉soup好用。既然我们之前分析得出我们需要的信息在tr的每个标签中,我们先获取到每个网页中的所有tr标签,做个轮询我们就可以获取到每个标签对应的信息了。

下面可以写一个存数据库的函数了:

def save_to_mongo(db_name, data, key_words):

''':db_name:数据表名称:data:由parse传入的可迭代的数据:key_words:在存入数据库时用到的关键字'''

for d in data:

key_word = {}

if isinstance(key_words, list):

key_word = {x: d[x] for x in key_words}

elif isinstance(key_words, str):

key_word = {key_words: d[key_words]}

[print(x) for x in data if data_base[db_name].update_one(key_word, {'$set': x}, True)]

万事具备,先可以写一个main函数了,直接把所有的数据存入mongodb数据库了。

def main(num):

''':num:我们需要存入数据库的最近num页的数据'''

for n in range(1,int(num)+1):

p = parse(page=n)

save_to_mongo(db_name='自己取',data=p,key_words=['期号'])

打完收工,是不是相当简单!!!

方法二:

这个是一个我感觉被大家忽略了的方法。遇到类似这样的网页表单,可能比上面方法仔细去分析网页结构,查找数据在网页中存放的位置和特点来的更简单一点,那么这个方法就是什么呢? 千呼万唤始出来,这个方法就是pandas中的read_html方法了,是不是很容易被大家忽略掉了,接下来就为大家介绍这种方法。import pandas as pd

def read(page):

''''''

url = http://kaijiang.zhcw.com/zhcw/html/3d/list_{}.html.format(page)

r = request.get(url,timeout=5)

df = pd.read_html(r.text)

keys = ['开奖日期','期号','中奖号码','单选','组选3','组选6','销售额(元)','返奖比例']

for d in df[0][2:-1].to_dict(orient='records'):

yield dict(zip(keys,[x for x in d.valus()][:-1]))

我们先来查看一下返回打印出来的结果:

这样的结果就是我想要的结果了,其实代码中df这部就可以获取到一个dataframe数据表单,我把它转换成了一个个的字典是为了往MongoDB数据库存取方便,如果你没有这样需要,直接到pd.read_html(r.text)就可以了。重复上面的main函数就可以直接存数据库,这样的操作是不是比上面的解析网页结构要简单了不少,以后遇到类似这样的网页表单结构,也可以采取类似的骚操作,就比大家熟悉的方法效率高一些。

总结

以上是生活随笔为你收集整理的python写彩票抓取_Python|爬取彩票数据的全部内容,希望文章能够帮你解决所遇到的问题。

如果觉得生活随笔网站内容还不错,欢迎将生活随笔推荐给好友。