博客
关于我
python爬虫:多线程的简单示例与应用
阅读量:121 次
发布时间:2019-02-27

本文共 2622 字,大约阅读时间需要 8 分钟。

前言

Python的标准库提供了两个模块:_thread和threading,_thread是低级模块,threading是高级模块,对_thread进行了封装。绝大多数情况下,我们只需要使用threading这个高级模块。

启动一个线程就是把一个函数传入并创建Thread实例,然后调用start()开始执行。
虽然python的多线程受GIL限制,并不是真正的多线程,但是对于I/O密集型计算还是能明显提高效率,比如说爬虫。详细请见

实例

下面用一个实例来验证多线程的效率。代码只涉及页面获取,并没有解析出来。

# -*-coding:utf-8 -*-import requests, timeimport threadingclass MyThread(threading.Thread):    def __init__(self, func, args):        threading.Thread.__init__(self)  # 调用父类的构造函数        self.args = args        self.func = func    def run(self):  # 线程活动方法        self.func(self.args[0])  # 启动这个函数args是元组,取出urldef open_url(url):    response = requests.get(url).text    print(len(response))    return responsedef nomal_method(urlList):    # 一般方式    n_start = time.time()    for each in urlList:        open_url(each)    n_end = time.time()    print('the normal way take %s s' % (n_end - n_start))def threadWay(urlList):    # 多线程    t_start = time.time()    threadList = [MyThread(open_url,(url,)) for url in urlList]  # 调用线程类创建新线程,返回线程列表    for t in threadList:        t.setDaemon(True)  # 设置守护线程,父线程会等待子线程执行完后再退出        t.start()  # 线程开启    for i in threadList:        i.join()  # 等待线程终止,等子线程执行完后再执行父线程    t_end = time.time()    print('the thread way take %s s' % (t_end - t_start))if __name__ == '__main__':    # 构造url列表    urlList = []    for p in range(1, 10):        urlList.append('https://so.gushiwen.org/authors/authorvsw.aspx?page='+str(p)+'&id=9cb3b7c0e4a0')    nomal_method(urlList)    threadWay(urlList)

分别用两种方式获取10个访问速度比较慢的网页,一般方式耗时1.8s,多线程耗时0.2s。

多线程简介

多线程举的例子,最对的可能就是消费者、生产者的例子了(不知道的可以去百度),下面介绍两种多线程的方式,即创建线程、传递函数(面向过程)和面向对象。

本人对多线程做了简单阐述,请

面向过程的多线程爬虫模板

(因为面向对象的我在上面写过了。。。)

思路

得到urlList,然后根据每个url创建一个线程,然后for循环启动再for循环join

代码

# -*-coding:utf-8 -*-import requests, timeimport threadingdef open_url(url):    response = requests.get(url).text    print(len(response))    return responsedef doSpyder(urlList):    # 多线程    t_start = time.time()    threadList = [threading.Thread(target=open_url,args=(url,)) for url in urlList]  # 调用线程类创建新线程,返回线程列表    for t in threadList:        t.setDaemon(True)  # 设置守护线程,父线程会等待子线程执行完后再退出        t.start()  # 线程开启    for i in threadList:        i.join()  # 等待线程终止,等子线程执行完后再执行父线程    t_end = time.time()    print('the thread way take %s s' % (t_end - t_start))if __name__ == '__main__':    # 构造url列表    urlList = []    for p in range(1, 10):        urlList.append('https://so.gushiwen.org/authors/authorvsw.aspx?page='+str(p)+'&id=9cb3b7c0e4a0')    doSpyder(urlList)

一个误区

注意:创建多线程的时候应该每个网页都创建一个线程,不能直接使用创建好的线程对列表进行访问爬取,否则会得到重复数据,即脏数据!!!(因为list是非线程安全的数据结构,就是同一秒可能有两个线程同时访问到了列表的第一个元素)

可以参看的脏数据部分
注意啊,不要使用锁来处理,那样多线程可能就变单线程了,,,,

转载地址:http://ehef.baihongyu.com/

你可能感兴趣的文章
MYSQL一直显示正在启动
查看>>
MySQL一站到底!华为首发MySQL进阶宝典,基础+优化+源码+架构+实战五飞
查看>>
MySQL万字总结!超详细!
查看>>
Mysql下载以及安装(新手入门,超详细)
查看>>
MySQL不会性能调优?看看这份清华架构师编写的MySQL性能优化手册吧
查看>>
MySQL不同字符集及排序规则详解:业务场景下的最佳选
查看>>
Mysql不同官方版本对比
查看>>
MySQL与Informix数据库中的同义表创建:深入解析与比较
查看>>
mysql与mem_细说 MySQL 之 MEM_ROOT
查看>>
MySQL与Oracle的数据迁移注意事项,另附转换工具链接
查看>>
mysql丢失更新问题
查看>>
MySQL两千万数据优化&迁移
查看>>
MySql中 delimiter 详解
查看>>
MYSQL中 find_in_set() 函数用法详解
查看>>
MySQL中auto_increment有什么作用?(IT枫斗者)
查看>>
MySQL中B+Tree索引原理
查看>>
mysql中cast() 和convert()的用法讲解
查看>>
mysql中datetime与timestamp类型有什么区别
查看>>
MySQL中DQL语言的执行顺序
查看>>
mysql中floor函数的作用是什么?
查看>>