百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

零基础三天学会Python爬虫(第二天)

myzbx 2025-03-14 19:11 31 浏览

一、Python与urllib2

现在已经迫不及待的想尝试一下url和网络爬虫的配合关系了。我们上一届已经介绍过了,爬虫就是把URL地址中的网络资源读取出来,然后处理(保存到本地,或者打印等等)。本篇文章篇幅较长,其中会有爬虫的小案例,想要学习的小伙伴耐心看。

如果我们想将爬虫落实到代码上,需要用到的是一个组件:urllib2

它就是Python获取URL的一个组件

我们首先创建一个urllib2_test01.py然后输入以下代码:

import urllib2
response = urllib2.urlopen('http://www.baidu.com')
html = response.read()
print html

Quite Easy!最简单的获取一个url的信息代码只需要4行!

执行写的Python代码:

python urllib2_test.py

会看到以下结果:

百度一下,你就知道.

实际上如果我们在浏览器上打开百度首页,右键选择“查看源代码”,就会发现,跟我们刚才打印出来的是一模一样的。也就是说,上面的4行代码就已经帮我们把百度的首页全部代码爬了下来了。

下面来分析一下这4行代码:

import urllib2

没什么好多说的,上面这行代码就是将urllib2组件引入进来,供给我们使用。

response = urllib2.urlopen('http://www.baidu.com')

然后调用urllib2库中的urlopen方法,该方法接受一个url地址,然后将请求后的得到的回应封装到一个叫response对象中。

html = response.read()

然后调用response对象的read()方法,将请求的回应内容以字符串的形式给html变量。

最后的print html就是将字符串打印出来。

所以说一个基本的url请求是对应的python代码是非常简单的。


当然还有第二种写法,先通过将一个url地址转换成一个Request请求对象,再将Request请求对象作为参数传递给urlopen方法。

import urllib2

req = urllib2.Request('百度一下,你就知道')
response = urllib2.urlopen(req)
my_page = response.read()

print my_page

但是这样直接用Python的urllib2给一个网站发送请求的话,确实有写唐突了。这就好比是,人家每家都有个门,你以一个路人的身份直接闯进去显然不是很礼貌,有可能对于有的网站会拒绝你的请求。

但是如果我们用一个合法的身份去请求别人的网站,显然人家就会很欢迎。

所以我们就应该给我们的这个代码加上一个身份,就是所谓的User-Agent头

what?如果你之前不是学习前端的,这个东西确实对于C或者后端工程师来说是一个很头疼的东西,不过不要紧,不是我们的东西这里只做了解即可。

我只需要告诉你一句话,就是你用不同的浏览器在发送请求的时候,会有不同的User-Agent头。

浏览器就是世界上被允许的身份。那么如果你不想你的爬虫代码成为一个路人,你需要伪装成一个被公认的浏览器。

伪装的办法当然就是给自己的请求加上一个对应的User-Agent头啦。

下面我们编辑urllib2_test03.py:

import urllib2
#我们要请求的url地址
url = "百度一下,你就知道"
#我们要伪装的浏览器user-agent头
user_agent = 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Tr
ident/5.0;' #IE 9.0
#创建一个字典,使请求的headers中'User-Agent':对应我们user_agent字符串
headers = {'User-Agent':user_agent}
#新建一个请求,需要将请求中的headers变量换成我们刚才创建好的headers
req = urllib2.Request(url, headers = headers)
#请求服务器,得到回应
response = urllib2.urlopen(req)
#得到回应的内容
the_page = response.read()
#将内容打到屏幕上
print the_page

以上就是url的一个基本的操作,那么如果你想实现一个简单的爬虫这些就足够了。但是如果你想深入的去了解urllib2的其他操作,显然这个教程不能满足你,可以私信或者是留言找我获取urllib2的其他相关教程。

下一个阶段我们继续介绍有关urllib2的知识,而且最后如何得到一个精简的小爬虫程序。

二、百度贴吧小爬虫

首先我们创建一个python文件,tieba_spider.py

我们要完成耳朵是输入一个百度贴吧的网址,比如:

LOL吧第一页:http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=0

这个是lol吧的第一个url地址,如果打开第二页,你会发现他的url如下:

LOL吧第二页:http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=50

LOL吧第三页:lol吧-百度贴吧--第一手电竞资讯/英雄攻略/尽在LOL吧

可以从中发现规律了吧,贴吧中每个页面不同,url出来最后的pn的值,其余的都是一样的,我们可以抓住这个规律。

简单恶写一个小爬虫程序,来爬取百度LOL吧的所有网页。

上一届我们已经写出了一个爬取一个网页的代码。

现在,我们将它封装成一个小函数load_page,供我们来使用。

def load_page(url):
    '''
    @brief      通过URL请求爬取到html静态页面源代码
    @param url  要爬取的url地址
    @returns
                源代码
    '''
    req = urllib2.Request(url)
    response = urllib2.urlopen(req)
    html = response.read()

return html

接下来,我们写一个百度贴吧爬虫接口,我们需要传递3个参数给这个接口。

一个是我们要爬取的url地址,和要爬取页码的范围。

def tieba_spider(url, begin_page, end_page):
    '''
    @brief               百度贴吧爬虫核心程序
    @param url           要爬取的url地址
    @param begin_page    爬虫贴吧的起始页数
    @param end_page      爬虫贴吧的终止页数
    '''
    user_agent = 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT
6.1; Trident/5.0;' #IE 9.0
    headers = {'User-Agent':user_agent}

    for i in range(begin_page, end_page+1):

        #根据百度贴吧的url中的页码pn规律
        # 当你打开第一页 pn = 0
        # 当你打开第二页 pn = 50
        # 当你打开第三页 pn = 100
        # 当你打开第四页 pn = 150 -0
        # ....
        # 所以 pn = 50* (page-1)
        pn = 50 * (i - 1)
        html = load_page(url+str(pn))

最后如果我们希望将爬取到的每页的信息存储在本地磁盘上,我们可以简单写一个存储文件的接口。

def write_file(file_name, text):
      '''
     @brief 将字符串内容写到文件中
     @param file_name 文件路径
     @param text 要写进的字符串
     '''
     print '正在存储文件' + file_name
     f = open(file_name, 'w+')
     f.write(text)
     f.close

ok,接下来就是写一个main函数,然后提示用户输入即将爬取的百度贴吧url地址。

注意:百度贴吧最后页码” pn=??? “中的 ??? 为我们传入的页码参数,所以我们再提供的

时候不能包括 ???

if __name__ == '__main__':
    bdurl = str(raw_input('请输入贴吧的地址, 去掉pn=后面的数字:'))
    begin_page = int(raw_input('请输入开始的页数'))
    end_page = int(raw_input('请输入结束的页数'))

tieba_spider(bdurl, begin_page, end_pag

综上所述,全部的完整代码应该如下:

# -*- coding: utf-8 -*-
#-------------------------
# 百度贴吧小爬虫
# 作者:无崖子
# 日期:2016-3-2
# sys: mac os
# python 2.7.6
# os: mac
#-------------------------

import urllib2

def write_file(file_name, text):
    '''
    @brief   将字符串内容写到文件中
    @param file_name          文件路径
    @param text               要写进的字符串
    '''
    print '正在存储文件' + file_name
    f = open(file_name, 'w+')
    f.write(text)
    f.close()

def load_page(url):
    '''
    @brief       通过URL请求爬取到html静态页面源代码
    @param url   要爬取的url地址
    @returns
                 源代码
    '''
    req = urllib2.Request(url)
    response = urllib2.urlopen(req)
    html = response.read()

    return html

    def tieba_spider(url, begin_page, end_page):
    '''
   @brief 百度贴吧爬虫核心程序
   @param url 要爬取的url地址
   @param begin_page 爬虫贴吧的起始页数
   @param end_page 爬虫贴吧的终止页数
   '''
   user_agent = 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT
6.1; Trident/5.0;' #IE 9.0
   headers = {'User-Agent':user_agent}
   for i in range(begin_page, end_page+1):

      #根据百度贴吧的url中的页码pn规律
      # 当你打开第一页 pn = 0
      # 当你打开第二页 pn = 50
      # 当你打开第三页 pn = 100
      # 当你打开第四页 pn = 150 -0
      # ....
      # 所以 pn = 50* (page-1)
      pn = 50 * (i - 1)
      html = load_page(url+str(pn))

      file_name = str(i) +'.html'
      print '正在下载第' + str(i) + '个网页'
      write_file(file_name, html)


if __name__ == '__main__':
    bdurl = str(raw_input('请输入贴吧的地址, 去掉pn=后面的数字:'))
    begin_page = int(raw_input('请输入开始的页数'))
    end_page = int(raw_input('请输入结束的页数'))

    tieba_spider(bdurl, begin_page, end_page)

好了,最后我们来测试一下咱们的小爬虫。

输入lol吧的地址 ” http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn= ”

注意:=号后面不要加数字,因为我们要自动添加

ocalhost:spider ldb$ python tieba_spider.py
请输入贴吧的地址, 去掉pn=后面的数字:http://tieba.baidu.com/f?kw=lol&ie=u 
tf-8&pn=
请输入开始的页数5
请输入结束的页数10
正在下载第5个网页
正在存储文件5.html
正在下载第6个网页
正在存储文件6.html
正在下载第7个网页
正在存储文件7.html
正在下载第8个网页
正在存储文件8.html
正在下载第9个网页
正在存储文件9.html
正在下载第10个网页
正在存储文件10.html

最后会发现当前路径下会有几个html页面,分别对应贴吧中对应的网页。

这样一个简单的爬虫程序就搞定了。

相关推荐

Luminati代理动态IP教程指南配置代理VMLogin中文版反指纹浏览器

介绍如何使用在VMLogin中文版设置Luminati代理。首先下载VMLogin中文版反指纹浏览器(https://cn.vmlogin.com)对于刚接触Luminati动态ip的朋友,是不是不懂...

文档中图形及子图形的处理(word中的图形对象有何特点)

【分享成果,随喜正能量】走得越远,见识越多,认识的人越多,你就越能体会到,人这一辈子,你真的在意的,同时又在意你的人,就那么几个,这几个人,就是你全部的世界。三两知己,爱人在侧,父母康健,听起来平淡无...

Python爬虫破解滑动验证码教程(python绕过滑动验证码)

破解滑动验证码通常需要结合图像识别和模拟人类操作,以下是分步骤的解决方案:1.分析验证码类型缺口识别型:背景图带缺口,滑块图带凸块轨迹验证型:除了位置还需模拟人类移动轨迹2.获取验证码图片方法一:...

「教程」5 分钟带你入门 kivy(新手kp教学)

原创:星安果AirPythonkivy语言通过编写界面UI,然后利用Python定义一些业务逻辑,可以移植很多功能模块到移动端直接执行。下面对kivy常见用法做一个汇总。1、什么是...

比呀比: Fossil Estate Canvas EW 男式复古邮差包 $70.99

Fossil是一个来自美国的全球性生活时尚品牌,始建于1984年,专注于时尚配件,是第一个将手表的价值与款式完美结合的美国品牌,如今Fossil已跃身成为美国最受欢迎的品牌之一。这款FossilE...

智能教学:如何在网上授课(网上授课怎么弄)

摘要:因为担心传统课堂可能会传播冠状病毒,许多大学已经开始在网上授课。耶鲁-新加坡国立大学的讲师凯瑟琳·谢伊·桑格(CatherineSheaSanger)解释了如何快速而有效地做到这一点。当新型冠...

wxPython库教程系列之图片:托盘图标和图片缩放、移动

1概要:=====1.1托盘图标设置1.2普通图片显示:原图显示,缩放显示,窗口与图片大小相互适应。1.3按钮图片设置1.4移动图片和zoom菜单按钮联动设置2托盘图标:========2...

UE4渲染目标开发教程(ue4渲染效果图质量怎么样)

渲染目标(RenderTarget)是你可以在运行时写入的纹理。在引擎方面,它们存储基础颜色、法线和环境光遮蔽等信息。在用户方面,渲染目标主要用作一种辅助相机。你可以将场景捕捉指向某物并将图像存储到...

比呀比: Fossil 化石 Canvas NS 男士复古帆布斜挎包 $57.59

FossilCanvasNS男士复古帆布斜挎包,尺寸约为26.5*11*33厘米。采用100%纯棉帆布面料,融合了休闲与百搭的外形,在经典的款型呈现复古质感。内设1个拉链袋,2个搭扣数码产品袋和...

比呀比: Timberland 添柏岚 Canvas Cord Case 帆布旅行手包 $5.99

Timberland添柏岚这款耐用帆布旅行手包,虽然一眼过去,觉得不咋地,但是品牌和质量还是妥妥滴,非常适合装一些零零碎碎的小东西,便于携带,多色可选,重点是价格更是感动价啊。目前这款包在6pm报价...

提炼文章/知识资料,两键转换成小红书图片

现在AI的功能已经越来越强大了,通过AI可以提高我们不少工作效率。刚好前几天做了一个几乎“一气呵成”,把长文章转成小红书卡片的流程Demo,分享给大家。之前发过两篇利用AI把长文章转成小红书图片...

python海龟绘图turtle(一):画布和窗体

海龟绘图(turtle)是python的一个有趣的内置模块,是python语言的标准库之一,是入门级的图形绘制函数库。海龟绘图(turtle)可以根据编写的控制指令(代码),让一个小“海龟”在屏幕上来...

在文档中添加画布及图片(word中如何添加画布)

【分享成果,随喜正能量】宁可正而不足,不可邪而有余。相识满天下,知心能几人。书七成,戏三分,牛皮灯影胡编成。布施不如还债,修福不如避祸。勿以恶小而为之,勿以善小而不为。。《VBA之Word应用》,是我...

知识管理神器 Obsidian,终于有了白板功能!

沙牛提示阅读本文需要3分钟,Obsidian白板功能来了!如果你喜欢本文,就分享给你的小伙伴!01白板继双链笔记之后,这一年,白板类工具开始火了起来。顾名思义,白板类工具,它给了你一张无限尺寸...

虚拟背景第一弹!教你如何在家中优雅地“学在交大”!

交大将于3月2日正式开始线上教学(3月1日举行线上教学第一课|视频直播课)目前正处于网课试课阶段交大在线课程教学以ZOOM、Canvas等作为主平台平台的虚拟背景功能可以具特别的环境效果更好地沉浸课堂...