欢迎访问 生活随笔!

生活随笔

当前位置: 首页 > 编程资源 > 编程问答 >内容正文

编程问答

四、爬虫中的urllib库使用

发布时间:2024/10/8 编程问答 45 豆豆
生活随笔 收集整理的这篇文章主要介绍了 四、爬虫中的urllib库使用 小编觉得挺不错的,现在分享给大家,帮大家做个参考.

这篇介绍如何使用爬虫中的urllib库

小试牛刀

怎样扒网页呢?

其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解释才呈现出来的,实质它是一段HTML代码,加 JS、CSS,如果把网页比作一个人,那么HTML便是他的骨架,JS便是他的肌肉,CSS便是它的衣服。所以最重要的部分是存在于HTML中的,下面我们就写个例子来扒一个网页下来

from urllib.request import urlopenresponse = urlopen("http://www.baidu.com") print(response.read().decode())

真正的程序就两行,执行如下命令查看运行结果,感受一下

看,这个网页的源码已经被我们扒下来了,是不是很酸爽?


常见到的方法

  • requset.urlopen(url,data,timeout)

    • 第一个参数url即为URL,第二个参数data是访问URL时要传送的数据,第三个timeout是设置超时时间。

    • 第二三个参数是可以不传送的,data默认为空None,timeout默认为 socket._GLOBAL_DEFAULT_TIMEOUT

    • 第一个参数URL是必须要传送的,在这个例子里面我们传送了百度的URL,执行urlopen方法之后,返回一个response对象,返回信息便保存在这里面。

  • respo

总结

以上是生活随笔为你收集整理的四、爬虫中的urllib库使用的全部内容,希望文章能够帮你解决所遇到的问题。

如果觉得生活随笔网站内容还不错,欢迎将生活随笔推荐给好友。