牛逼的分分钟就将一个网站爬下来,写爬虫以及

  用c语言写了kmeans算法的串路程序,再用mpi来写并行版的,貌似参照着串行版来写并行版,效果不是很欣然自得~

python选用 多进度/多线程/协程 写爬虫以至品质相比,牛逼的分分钟就将二个网站爬下来!,python爬虫

 

先是我们来打听下python中的进度,线程以至协程!

从Computer硬件角度:

Computer的骨干是CPU,承当了独具的思索职分。
二个CPU,在二个时间切成片里只可以运转七个顺序。

 

从操作系统的角度:

经过和线程,皆以一种CPU的试行单元。

经过:表示二个前后相继的上下文实施活动(展开、实践、保存...卡塔尔国

线程:进程实行顺序时候的小不点儿调节单位(推行a,推行b...)

三个顺序至罕见二个经过,一个经过至少有三个线程。

 

并行 和 并发:

互相之间:八个CPU核心,差异的次序就分配给不一样的CPU来运转。能够让五个程序同期奉行。

cpu1 -------------
cpu2 -------------
cpu3 -------------
cpu4 -------------

并发:单个CPU主旨,在三个时间切成块里贰遍只好运转三个顺序,假诺急需周转几个程序,则串行实践。

cpu1  ----  ----

cpu1    ----  ----

 

多进程/多线程:
意味着能够相同的时候实行四个职责,进度和线程的调节是由操作系统自动达成。

进度:每个过程都有谈得来单身的内部存款和储蓄器空间,分歧进度之间的内部存款和储蓄器空间不分享。
经过之间的通讯有操作系统传递,招致通信功能低,切换花销大。

线程:一个历程能够有八个线程,所有线程分享进程的内部存款和储蓄器空间,通信成效高,切换费用小。

分享意味着竞争,招致数据不安全,为了掩护内部存款和储蓄器空间的数量安全,引进"互斥锁"。

叁个线程在做客内部存储器空间的时候,其余线程不允许访谈,必得等待早先的线程访谈截至,手艺接纳这一个内部存款和储蓄器空间。

互斥锁:豆蔻梢头种安全平稳的让四个线程访谈内部存款和储蓄器空间的体制。

 

Python的多线程:

GIL 全局解释器锁:线程的推行权限,在Python的经过里独有三个GIL。

多少个线程必要实行职分,必需获得GIL。

好处:直接杜绝了七个线程访问内部存款和储蓄器空间的平安难题。
弊病:Python的八线程不是真正三十二线程,无法丰盛利用多核CPU的财富。

可是,在I/O窒碍的时候,解释器会放出GIL。

所以:

多进度:密集CPU职责,需求丰硕使用多核CPU能源(服务器,大量的并行总结卡塔尔国的时候,用多进度。 multiprocessing
破绽:七个进程之间通讯开销高,切换花销大。

三十二线程:密集I/O职责(互连网I/O,磁盘I/O,数据库I/O卡塔 尔(英语:State of Qatar)使用十六线程合适。
threading.Thread、multiprocessing.dummy
瑕疵:同三个时间切成丝只可以运营一个线程,无法成功高并行,可是能够变成高并发。

协程:又称微线程,在单线程上实践多少个职责,用函数切换,开销超级小。不通过操作系统调解,未有经过、线程的切换费用。genvent,monkey.patchall

四线程诉求重回是冬季的,那几个线程有数据重返就处理特别线程,而协程重回的数据是一动不动的。

缺点:单线程试行,管理密集CPU和本土磁盘IO的时候,品质相当的低。管理网络I/O质量还是相比高.

 

上边以这一个网址为例,采取两种办法爬取。爬取前250名的影片。。

 通过解析网页开采第2页的url start=25,第3页的url start=50,第3页的start=75。因而得以吸取那些网址每大器晚成页的数局是通过依次增加start那么些参数获取的。

相同不看率先页的数据,第后生可畏页的从未有过参谋价值。

图片 1

 

此次我们器重爬取,电影名字跟评分。只是使用差别方法去对待下分裂点,所以数据方面就可是多领取或然封存。只是轻易的将其爬取下打字与印刷出来看看。

率先:选用多进度 , multiprocessing 模块。 当然那一个耗费时间更互连网好坏有关。在全数要恳求都不奇怪的情景下耗费时间15s多。

 

图片 2

#!/usr/bin/env python2
# -*- coding=utf-8 -*-

from multiprocessing import Process, Queue

import time
from lxml import etree
import requests


class DouBanSpider(Process):
    def __init__(self, url, q):
        # 重写写父类的__init__方法
        super(DouBanSpider, self).__init__()
        self.url = url
        self.q = q
        self.headers = {
            'Host': 'movie.douban.com',
            'Referer': 'https://movie.douban.com/top250?start=225&filter=',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36',
        }

    def run(self):
        self.parse_page()

    def send_request(self,url):
        '''
        用来发送请求的方法
        :return: 返回网页源码
        '''
        # 请求出错时,重复请求3次,
        i = 0
        while i <= 3:
            try:
                print u"[INFO]请求url:" url
                return requests.get(url=url,headers=self.headers).content
            except Exception as e:
                print u'[INFO] %s%s'% (e,url)
                i  = 1

    def parse_page(self):
        '''
        解析网站源码,并采用xpath提取 电影名称和平分放到队列中
        :return:
        '''
        response = self.send_request(self.url)
        html = etree.HTML(response)
        # 获取到一页的电影数据
        node_list = html.xpath("//div[@class='info']")
        for move in node_list:
            # 电影名称
            title = move.xpath('.//a/span/text()')[0]
            # 评分
            score = move.xpath('.//div[@class="bd"]//span[@class="rating_num"]/text()')[0]

            # 将每一部电影的名称跟评分加入到队列
            self.q.put(score   "t"   title)


def main():
    # 创建一个队列用来保存进程获取到的数据
    q = Queue()
    base_url = 'https://movie.douban.com/top250?start='
    # 构造所有url
    url_list = [base_url str(num) for num in range(0,225 1,25)]

    # 保存进程
    Process_list = []
    # 创建并启动进程
    for url in url_list:
        p = DouBanSpider(url,q)
        p.start()
        Process_list.append(p)

    # 让主进程等待子进程执行完成
    for i in Process_list:
        i.join()

    while not q.empty():
        print q.get()

if __name__=="__main__":

    start = time.time()
    main()
    print '[info]耗时:%s'%(time.time()-start)

Process多进度完结

#!/usr/bin/env python2
# -*- coding=utf-8 -*-

from multiprocessing import Process, Queue

import time
from lxml import etree
import requests


class DouBanSpider(Process):
    def __init__(self, url, q):
        # 重写写父类的__init__方法
        super(DouBanSpider, self).__init__()
        self.url = url
        self.q = q
        self.headers = {
            'Host': 'movie.douban.com',
            'Referer': 'https://movie.douban.com/top250?start=225&filter=',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36',
        }

    def run(self):
        self.parse_page()

    def send_request(self,url):
        '''
        用来发送请求的方法
        :return: 返回网页源码
        '''
        # 请求出错时,重复请求3次,
        i = 0
        while i <= 3:
            try:
                print u"[INFO]请求url:" url
                return requests.get(url=url,headers=self.headers).content
            except Exception as e:
                print u'[INFO] %s%s'% (e,url)
                i  = 1

    def parse_page(self):
        '''
        解析网站源码,并采用xpath提取 电影名称和平分放到队列中
        :return:
        '''
        response = self.send_request(self.url)
        html = etree.HTML(response)
        # 获取到一页的电影数据
        node_list = html.xpath("//div[@class='info']")
        for move in node_list:
            # 电影名称
            title = move.xpath('.//a/span/text()')[0]
            # 评分
            score = move.xpath('.//div[@class="bd"]//span[@class="rating_num"]/text()')[0]

            # 将每一部电影的名称跟评分加入到队列
            self.q.put(score   "t"   title)


def main():
    # 创建一个队列用来保存进程获取到的数据
    q = Queue()
    base_url = 'https://movie.douban.com/top250?start='
    # 构造所有url
    url_list = [base_url str(num) for num in range(0,225 1,25)]

    # 保存进程
    Process_list = []
    # 创建并启动进程
    for url in url_list:
        p = DouBanSpider(url,q)
        p.start()
        Process_list.append(p)

    # 让主进程等待子进程执行完成
    for i in Process_list:
        i.join()

    while not q.empty():
        print q.get()

if __name__=="__main__":

    start = time.time()
    main()
    print '[info]耗时:%s'%(time.time()-start)

  

图片 3

 

 

 

  选择八十四线程时,耗费时间10.4s

 

图片 4

#!/usr/bin/env python2
# -*- coding=utf-8 -*-

from threading import Thread
from Queue import Queue
import time
from lxml import etree
import requests


class DouBanSpider(Thread):
    def __init__(self, url, q):
        # 重写写父类的__init__方法
        super(DouBanSpider, self).__init__()
        self.url = url
        self.q = q
        self.headers = {
            'Cookie': 'll="118282"; bid=ctyiEarSLfw; ps=y; __yadk_uid=0Sr85yZ9d4bEeLKhv4w3695OFOPoedzC; dbcl2="155150959:OEu4dds1G1o"; as="https://sec.douban.com/b?r=https://book.douban.com/"; ck=fTrQ; _pk_id.100001.4cf6=c86baf05e448fb8d.1506160776.3.1507290432.1507283501.; _pk_ses.100001.4cf6=*; __utma=30149280.1633528206.1506160772.1507283346.1507290433.3; __utmb=30149280.0.10.1507290433; __utmc=30149280; __utmz=30149280.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); __utma=223695111.1475767059.1506160772.1507283346.1507290433.3; __utmb=223695111.0.10.1507290433; __utmc=223695111; __utmz=223695111.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); push_noty_num=0; push_doumail_num=0',
            'Host': 'movie.douban.com',
            'Referer': 'https://movie.douban.com/top250?start=225&filter=',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36',
        }

    def run(self):
        self.parse_page()

    def send_request(self,url):
        '''
        用来发送请求的方法
        :return: 返回网页源码
        '''
        # 请求出错时,重复请求3次,
        i = 0
        while i <= 3:
            try:
                print u"[INFO]请求url:" url
                html = requests.get(url=url,headers=self.headers).content
            except Exception as e:
                print u'[INFO] %s%s'% (e,url)
                i  = 1
            else:
                return html

    def parse_page(self):
        '''
        解析网站源码,并采用xpath提取 电影名称和平分放到队列中
        :return:
        '''
        response = self.send_request(self.url)
        html = etree.HTML(response)
        # 获取到一页的电影数据
        node_list = html.xpath("//div[@class='info']")
        for move in node_list:
            # 电影名称
            title = move.xpath('.//a/span/text()')[0]
            # 评分
            score = move.xpath('.//div[@class="bd"]//span[@class="rating_num"]/text()')[0]

            # 将每一部电影的名称跟评分加入到队列
            self.q.put(score   "t"   title)


def main():
    # 创建一个队列用来保存进程获取到的数据
    q = Queue()
    base_url = 'https://movie.douban.com/top250?start='
    # 构造所有url
    url_list = [base_url str(num) for num in range(0,225 1,25)]

    # 保存线程
    Thread_list = []
    # 创建并启动线程
    for url in url_list:
        p = DouBanSpider(url,q)
        p.start()
        Thread_list.append(p)

    # 让主线程等待子线程执行完成
    for i in Thread_list:
        i.join()

    while not q.empty():
        print q.get()

if __name__=="__main__":

    start = time.time()
    main()
    print '[info]耗时:%s'%(time.time()-start)

thread

#!/usr/bin/env python2
# -*- coding=utf-8 -*-

from threading import Thread
from Queue import Queue
import time
from lxml import etree
import requests


class DouBanSpider(Thread):
    def __init__(self, url, q):
        # 重写写父类的__init__方法
        super(DouBanSpider, self).__init__()
        self.url = url
        self.q = q
        self.headers = {
            'Cookie': 'll="118282"; bid=ctyiEarSLfw; ps=y; __yadk_uid=0Sr85yZ9d4bEeLKhv4w3695OFOPoedzC; dbcl2="155150959:OEu4dds1G1o"; as="https://sec.douban.com/b?r=https://book.douban.com/"; ck=fTrQ; _pk_id.100001.4cf6=c86baf05e448fb8d.1506160776.3.1507290432.1507283501.; _pk_ses.100001.4cf6=*; __utma=30149280.1633528206.1506160772.1507283346.1507290433.3; __utmb=30149280.0.10.1507290433; __utmc=30149280; __utmz=30149280.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); __utma=223695111.1475767059.1506160772.1507283346.1507290433.3; __utmb=223695111.0.10.1507290433; __utmc=223695111; __utmz=223695111.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); push_noty_num=0; push_doumail_num=0',
            'Host': 'movie.douban.com',
            'Referer': 'https://movie.douban.com/top250?start=225&filter=',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36',
        }

    def run(self):
        self.parse_page()

    def send_request(self,url):
        '''
        用来发送请求的方法
        :return: 返回网页源码
        '''
        # 请求出错时,重复请求3次,
        i = 0
        while i <= 3:
            try:
                print u"[INFO]请求url:" url
                html = requests.get(url=url,headers=self.headers).content
            except Exception as e:
                print u'[INFO] %s%s'% (e,url)
                i  = 1
            else:
                return html

    def parse_page(self):
        '''
        解析网站源码,并采用xpath提取 电影名称和平分放到队列中
        :return:
        '''
        response = self.send_request(self.url)
        html = etree.HTML(response)
        # 获取到一页的电影数据
        node_list = html.xpath("//div[@class='info']")
        for move in node_list:
            # 电影名称
            title = move.xpath('.//a/span/text()')[0]
            # 评分
            score = move.xpath('.//div[@class="bd"]//span[@class="rating_num"]/text()')[0]

            # 将每一部电影的名称跟评分加入到队列
            self.q.put(score   "t"   title)


def main():
    # 创建一个队列用来保存进程获取到的数据
    q = Queue()
    base_url = 'https://movie.douban.com/top250?start='
    # 构造所有url
    url_list = [base_url str(num) for num in range(0,225 1,25)]

    # 保存线程
    Thread_list = []
    # 创建并启动线程
    for url in url_list:
        p = DouBanSpider(url,q)
        p.start()
        Thread_list.append(p)

    # 让主线程等待子线程执行完成
    for i in Thread_list:
        i.join()

    while not q.empty():
        print q.get()

if __name__=="__main__":

    start = time.time()
    main()
    print '[info]耗时:%s'%(time.time()-start)

  

 图片 5

 

 

采取协程爬取,耗费时间15S,

图片 6

#!/usr/bin/env python2
# -*- coding=utf-8 -*-

from Queue import Queue
import time
from lxml import etree
import requests
import gevent

# 打上猴子补丁
from gevent import monkey
monkey.patch_all()

class DouBanSpider(object):
    def __init__(self):
        # 创建一个队列用来保存进程获取到的数据
        self.q = Queue()
        self.headers = {
            'Cookie': 'll="118282"; bid=ctyiEarSLfw; ps=y; __yadk_uid=0Sr85yZ9d4bEeLKhv4w3695OFOPoedzC; dbcl2="155150959:OEu4dds1G1o"; as="https://sec.douban.com/b?r=https://book.douban.com/"; ck=fTrQ; _pk_id.100001.4cf6=c86baf05e448fb8d.1506160776.3.1507290432.1507283501.; _pk_ses.100001.4cf6=*; __utma=30149280.1633528206.1506160772.1507283346.1507290433.3; __utmb=30149280.0.10.1507290433; __utmc=30149280; __utmz=30149280.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); __utma=223695111.1475767059.1506160772.1507283346.1507290433.3; __utmb=223695111.0.10.1507290433; __utmc=223695111; __utmz=223695111.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); push_noty_num=0; push_doumail_num=0',
            'Host': 'movie.douban.com',
            'Referer': 'https://movie.douban.com/top250?start=225&filter=',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36',
        }

    def run(self,url):
        self.parse_page(url)

    def send_request(self,url):
        '''
        用来发送请求的方法
        :return: 返回网页源码
        '''
        # 请求出错时,重复请求3次,
        i = 0
        while i <= 3:
            try:
                print u"[INFO]请求url:" url
                html = requests.get(url=url,headers=self.headers).content
            except Exception as e:
                print u'[INFO] %s%s'% (e,url)
                i  = 1
            else:
                return html

    def parse_page(self,url):
        '''
        解析网站源码,并采用xpath提取 电影名称和平分放到队列中
        :return:
        '''
        response = self.send_request(url)
        html = etree.HTML(response)
        # 获取到一页的电影数据
        node_list = html.xpath("//div[@class='info']")
        for move in node_list:
            # 电影名称
            title = move.xpath('.//a/span/text()')[0]
            # 评分
            score = move.xpath('.//div[@class="bd"]//span[@class="rating_num"]/text()')[0]

            # 将每一部电影的名称跟评分加入到队列
            self.q.put(score   "t"   title)


    def main(self):


        base_url = 'https://movie.douban.com/top250?start='
        # 构造所有url
        url_list = [base_url str(num) for num in range(0,225 1,25)]
        # 创建协程并执行
        job_list = [gevent.spawn(self.run,url) for url in url_list]
        # 让线程等待所有任务完成,再继续执行。
        gevent.joinall(job_list)

        while not self.q.empty():
            print self.q.get()

if __name__=="__main__":
    start = time.time()
    douban = DouBanSpider()
    douban.main()
    print '[info]耗时:%s'%(time.time()-start)

gevent

 

 图片 7

 

 

用了多进度,二十四线程,协程,达成的代码都平等,未有测验出肯定的丰裕好!都不分上下,大概跟互联网,也许服务器配置有关。

但理论上来讲线程,协程在I/O密集的操作品质是要压倒进度的。

 

也恐怕是自家的章程有标题,还望大神们请教!

 

多过程/八线程/协程 写爬虫以至品质相比较,牛逼的分分钟就将三个网址爬下来!,python爬虫 首先我们来询问下python中的进度,线程...

 

  

率先大家来打探下python中的进度,线程以致协程!

  并行化思路:

从Computer硬件角度:

  使用基本情势。由二个节点当做主节点负担数据的剪切与分配,别的节点完结地点数据的计量,并将结果再次回到给主节点。差不离进度如下:

Computer的主导是CPU,肩负了具有的构思职务。
八个CPU,在三个时光切成条里只可以启动二个顺序。

  1、进度0为主节点,先从文件中读取数据集,然后将数据集划分并传给别的进度;

 

  2、进度0采取每种聚类的中坚点,并发送给别的进程;

从操作系统的角度:

  3、其余进程总计数据块中各样点到中央点的相距,然后标出每种点所属的聚类,并思谋每一种聚类全体一点到里头心点的离开之和,最终将那个结果回到给进度0;

进程和线程,都以大器晚成种CPU的奉行单元。

  4、进度0总括出新的中坚点并发送给其他过程,并考虑别的进程传来的聚类全部一点点到其宗旨点的相距总和;

进程:表示三个程序的上下文实行活动(展开、实行、保存...卡塔尔

  5、重复3和4截至,直到步骤4中的全体聚类的间隔之和不改变(即未有卡塔 尔(阿拉伯语:قطر‎。

线程:进度施行顺序时候的一丁点儿调节单位(实行a,推行b...)

 

一个程序至罕有多个进程,一个进度至稀有贰个线程。

  code:

 

  1 #include <stdio.h>
  2 #include <stdlib.h>
  3 #include <math.h>
  4 #include <time.h>
  5 #include "mpi.h"
  6 
  7 int  main(int argc,char *argv[])
  8 {
  9     int i,j;
 10     MPI_Status status;
 11     float temp1,temp2;
 12     int K,N,D;  //聚类的数目,数据量,数据的维数
 13     float **data;  //存放数据
 14     int *all_in_cluster;  //进程0标记每个点属于哪个聚类
 15     int *local_in_cluster;  //其他进程标记每个点属于哪个聚类
 16     int *in_cluster;  //进程0标记每个点属于哪个聚类
 17     int count=0;
 18     float *sum_diff;
 19     float *global_sum_diff;
 20     float **cluster_center;  //存放每个聚类的中心点
 21     int rank,size;
 22     float **array(int m,int n);
 23     float **loadData(int *k,int *d,int *n);
 24     float getDistance(float avector[],float bvector[],int n);
 25     void cluster(int n,int k,int d,float **data,float **cluster_center,int *local_in_cluster);
 26     float getDifference(int k,int n,int d,int *in_cluster,float **data,float **cluster_center,float *sum);
 27     void getCenter(int k,int d,int n,int *in_cluster,float **data,float **cluster_center);
 28 
 29     MPI_Init(&argc,&argv);
 30     MPI_Comm_rank(MPI_COMM_WORLD,&rank);
 31     MPI_Comm_size(MPI_COMM_WORLD,&size);
 32     if(!rank){
 33         data=loadData(&K,&D,&N);  //进程0读入数据
 34         if(size==1||size>N||N%(size-1))    MPI_Abort(MPI_COMM_WORLD,1);  //若不满足条件则退出
 35     }
 36     MPI_Bcast(&K,1,MPI_INT,0,MPI_COMM_WORLD);  //进程0广播
 37     MPI_Bcast(&N,1,MPI_INT,0,MPI_COMM_WORLD);  
 38     MPI_Bcast(&D,1,MPI_INT,0,MPI_COMM_WORLD);  
 39     if(rank)    data=array(N/(size-1),D);  //其他进程分配存储数据集的空间
 40     all_in_cluster=(int *)malloc(N/(size-1)*size*sizeof(int));  //用于进程0
 41     local_in_cluster=(int *)malloc(N/(size-1)*sizeof(int));  //用于每个进程
 42     in_cluster=(int *)malloc(N*sizeof(int));  //用于进程0
 43     sum_diff=(float *)malloc(K*sizeof(float));  //进程中每个聚类的数据点与其中心点的距离之和
 44     global_sum_diff=(float *)malloc(K*sizeof(float));
 45     for(i=0;i<K;i  )    sum_diff[i]=0.0;  //初始化
 46 
 47     if(!rank){  //进程0向其他进程分配数据集
 48         for(i=0;i<N;i =(N/(size-1)))
 49             for(j=0;j<(N/(size-1));j  )
 50                 MPI_Send(data[i j],D,MPI_FLOAT,(i j)/(N/(size-1)) 1,99,MPI_COMM_WORLD);  
 51         printf("Data sets:n");
 52         for(i=0;i<N;i  )
 53             for(j=0;j<D;j  ){
 54                 printf("%-8.2f",data[i][j]);
 55                 if((j 1)%D==0)    putchar('n');
 56             }
 57            printf("-----------------------------n");
 58     }else{  //其他进程接收进程0数据
 59         for(i=0;i<(N/(size-1));i  )
 60             MPI_Recv(data[i],D,MPI_FLOAT,0,99,MPI_COMM_WORLD,&status);
 61     }
 62     MPI_Barrier(MPI_COMM_WORLD);  //同步一下
 63     cluster_center=array(K,D);  //中心点 
 64     if(!rank){  //进程0产生随机中心点
 65         srand((unsigned int)(time(NULL)));  //随机初始化k个中心点
 66         for(i=0;i<K;i  )
 67             for(j=0;j<D;j  )
 68                 cluster_center[i][j]=data[(int)((double)N*rand()/(RAND_MAX 1.0))][j];
 69     }
 70     for(i=0;i<K;i  )    MPI_Bcast(cluster_center[i],D,MPI_FLOAT,0,MPI_COMM_WORLD);  //进程0向其他进程广播中心点
 71     if(rank){
 72         cluster(N/(size-1),K,D,data,cluster_center,local_in_cluster);  //其他进程进行聚类
 73         getDifference(K,N/(size-1),D,local_in_cluster,data,cluster_center,sum_diff);
 74         for(i=0;i<N/(size-1);i  )
 75             printf("data[%d] in cluster-%dn",(rank-1)*(N/(size-1)) i,local_in_cluster[i] 1);
 76     }
 77     MPI_Gather(local_in_cluster,N/(size-1),MPI_INT,all_in_cluster,N/(size-1),MPI_INT,0,MPI_COMM_WORLD);  //全收集于进程0
 78     MPI_Reduce(sum_diff,global_sum_diff,K,MPI_FLOAT,MPI_SUM,0,MPI_COMM_WORLD);  //归约至进程0,进程中每个聚类的数据点与其中心点的距离之和
 79     if(!rank){  
 80         for(i=N/(size-1);i<N N/(size-1);i  ) 
 81             in_cluster[i-N/(size-1)]=all_in_cluster[i];  //处理收集的标记数组
 82         temp1=0.0;
 83         for(i=0;i<K;i  ) temp1 =global_sum_diff[i];
 84         printf("The difference between data and center is: %.2fnn", temp1);
 85         count  ;
 86     }
 87     MPI_Bcast(&temp1,1,MPI_FLOAT,0,MPI_COMM_WORLD);
 88     MPI_Barrier(MPI_COMM_WORLD);
 89 
 90     do{   //比较前后两次迭代,若不相等继续迭代
 91         temp1=temp2;
 92         if(!rank)    getCenter(K,D,N,in_cluster,data,cluster_center);  //更新中心点
 93         for(i=0;i<K;i  )    MPI_Bcast(cluster_center[i],D,MPI_FLOAT,0,MPI_COMM_WORLD);  //广播中心点    
 94         if(rank){
 95             cluster(N/(size-1),K,D,data,cluster_center,local_in_cluster);  //其他进程进行聚类
 96             for(i=0;i<K;i  )    sum_diff[i]=0.0;
 97             getDifference(K,N/(size-1),D,local_in_cluster,data,cluster_center,sum_diff);
 98             for(i=0;i<N/(size-1);i  )
 99                 printf("data[%d] in cluster-%dn",(rank-1)*(N/(size-1)) i,local_in_cluster[i] 1);
100         }
101         MPI_Gather(local_in_cluster,N/(size-1),MPI_INT,all_in_cluster,N/(size-1),MPI_INT,0,MPI_COMM_WORLD);
102         if(!rank)
103             for(i=0;i<K;i  )    global_sum_diff[i]=0.0;
104         MPI_Reduce(sum_diff,global_sum_diff,K,MPI_FLOAT,MPI_SUM,0,MPI_COMM_WORLD);
105         if(!rank){
106             for(i=N/(size-1);i<N N/(size-1);i  ) 
107                 in_cluster[i-N/(size-1)]=all_in_cluster[i];
108             temp2=0.0;
109             for(i=0;i<K;i  ) temp2 =global_sum_diff[i];
110             printf("The difference between data and center is: %.2fnn", temp2);
111             count  ;
112         }
113         MPI_Bcast(&temp2,1,MPI_FLOAT,0,MPI_COMM_WORLD);
114         MPI_Barrier(MPI_COMM_WORLD);
115     }while(fabs(temp2-temp1)!=0.0);
116     if(!rank)    printf("The total number of cluster is: %dnn",count);
117     MPI_Finalize();
118 }
119 
120 
121 //动态创建二维数组
122 float **array(int m,int n)
123 {
124     int i;
125     float **p;
126     p=(float **)malloc(m*sizeof(float *));
127     p[0]=(float *)malloc(m*n*sizeof(float));
128     for(i=1;i<m;i  )    p[i]=p[i-1] n;
129     return p;
130 }
131 
132 //从data.txt导入数据,要求首行格式:K=聚类数目,D=数据维度,N=数据量
133 float **loadData(int *k,int *d,int *n)
134 {
135     float **array(int m,int n);
136     int i,j;
137     float **arraydata;
138     FILE *fp;
139     if((fp=fopen("data.txt","r"))==NULL)    fprintf(stderr,"cannot open data.txt!n");
140     if(fscanf(fp,"K=%d,D=%d,N=%dn",k,d,n)!=3)    fprintf(stderr,"load error!n");
141     arraydata=array(*n,*d);  //生成数据数组
142     for(i=0;i<*n;i  )
143         for(j=0;j<*d;j  )
144             fscanf(fp,"%f",&arraydata[i][j]);  //读取数据点
145     return arraydata;
146 }
147 
148 //计算欧几里得距离
149 float getDistance(float avector[],float bvector[],int n)
150 {
151     int i;
152     float sum=0.0;
153     for(i=0;i<n;i  )
154         sum =pow(avector[i]-bvector[i],2);
155     return sqrt(sum);
156 }
157 
158 //把N个数据点聚类,标出每个点属于哪个聚类
159 void cluster(int n,int k,int d,float **data,float **cluster_center,int *local_in_cluster)
160 {
161     int i,j;
162     float min;
163     float **distance=array(n,k);  //存放每个数据点到每个中心点的距离
164     for(i=0;i<n;  i){
165         min=9999.0;
166         for(j=0;j<k;  j){
167             distance[i][j] = getDistance(data[i],cluster_center[j],d);
168             if(distance[i][j]<min){
169             min=distance[i][j];
170             local_in_cluster[i]=j;
171         }
172        }
173     }
174     printf("-----------------------------n");
175     free(distance);
176 }
177 
178 //计算所有聚类的中心点与其数据点的距离之和
179 float getDifference(int k,int n,int d,int *in_cluster,float **data,float **cluster_center,float *sum)
180 {
181     int i,j;
182     for(i=0;i<k;  i)
183         for(j=0;j<n;  j)
184             if(i==in_cluster[j])
185                 sum[i] =getDistance(data[j],cluster_center[i],d);
186 }
187 
188 //计算每个聚类的中心点
189 void getCenter(int k,int d,int n,int *in_cluster,float **data,float **cluster_center)
190 {
191     float **sum=array(k,d);  //存放每个聚类中心
192     int i,j,q,count;
193     for(i=0;i<k;i  )
194         for(j=0;j<d;j  )
195             sum[i][j]=0.0;
196     for(i=0;i<k;i  ){
197         count=0;  //统计属于某个聚类内的所有数据点
198         for(j=0;j<n;j  ){
199             if(i==in_cluster[j]){
200                 for(q=0;q<d;q  )
201                     sum[i][q] =data[j][q];  //计算所属聚类的所有数据点的相应维数之和
202                 count  ;
203             }
204         }
205         for(q=0;q<d;q  )
206             cluster_center[i][q]=sum[i][q]/count;
207     }
208     printf("The new center of cluster is:n");
209         for(i = 0; i < k; i  )
210             for(q=0;q<d;q  ){
211                 printf("%-8.2f",cluster_center[i][q]);
212                 if((q 1)%d==0)    putchar('n');
213     }
214     free(sum);
215 }

并行 和 并发:

  

人机联作:五个CPU焦点,不相同的顺序就分配给不一样的CPU来运维。能够让多少个程序同不经常候推行。

 1 //生成测试数据
 2 #include<stdio.h>
 3 #include<stdlib.h>
 4 #include<time.h>
 5 #define N 1000
 6 
 7 int main()
 8 {
 9     int i;
10     float a;
11     int k,d,n;
12     FILE *fp;
13     fprintf(stdout,"input(k d n):");
14     scanf("%d%d%d",&k,&d,&n);
15     if((fp=fopen("data.txt","w"))==NULL)    exit(1);
16     fprintf(fp,"K=%d,D=%d,N=%dn",k,d,n);
17     srand((unsigned int)(time(NULL)));
18     for(i=1;i<=d*n;i  ){
19         a=(int)(1.0 (double)N*rand()/(RAND_MAX 1.0));
20         fprintf(fp,"%.2f ",a);
21         if(i%d==0) putc('n',fp);
22     }
23     if(fclose(fp)) exit(2);
24 }

cpu1 -------------
cpu2 -------------
cpu3 -------------
cpu4 -------------

 

出现:单个CPU宗旨,在二个年华切丝里一遍只好运维贰个程序,借使须要周转多个程序,则串行实践。

  实验:

cpu1  ----  ----

  聚类数K=10,数据的维度D=2,单位(秒):

cpu1    ----  ----

数据量N

10000

100000

500000

串行

1

21

109

并行(2个进程)

2

25

101

并行(3个进程)

3

26

101

 

  

多进程/多线程:
表示能够况兼进行几个职责,进度和线程的调节是由操作系统自动达成。

 

进度:每种进度都有和好单独的内部存款和储蓄器空间,不一样进度之间的内部存储器空间不分享。
进度之间的通讯有操作系统传递,导致通信功效低,切换开销大。

 

线程:几个进度能够有多个线程,所有线程分享进度的内部存款和储蓄器空间,通信效能高,切换费用小。

 

分享意味着竞争,导致数据不安全,为了爱戴内部存款和储蓄器空间的多少安全,引进"互斥锁"。

 

贰个线程在做客内部存款和储蓄器空间的时候,别的线程不容许访问,必得等待在此以前的线程访问截至,本领选拔那个内部存款和储蓄器空间。

 

互斥锁:后生可畏种安全有序的让七个线程访问内部存款和储蓄器空间的机制。

  分析:Computer配置是奔腾双核,依照该并路程序,叁个宗旨用作主节点以分配数据集,另贰个主导作为承受了大多数乘除任务的节点。当数据量较时辰,并路程序花在进程间数据通信的时辰占了完整时间的不小比例,所以并路程序耗费时间要多于串路程序。在本计算机CPU为八个宗旨的条件下,当数据量超大时,并路程序与串路程序耗时卓殊或然稍稍偏小。在CPU宗旨数在3个以上时,该并路程序的优势才显暴露来。

 

 

Python的二十四线程:

GIL 全局解释器锁:线程的奉行权限,在Python的进度里独有多少个GIL。

一个线程须求执行职务,必得拿到GIL。

平价:直接杜绝了多少个线程访谈内部存款和储蓄器空间的安全难点。
坏处:Python的八线程不是实在八十多线程,无法充裕利用多核CPU的财富。

唯独,在I/O梗塞的时候,解释器会自由GIL。

所以:

多进度:密集CPU任务,须求丰裕行使多核CPU能源(服务器,大量的并行总结卡塔尔国的时候,用多进度。 multiprocessing
劣点:四个经过之间通讯花销高,切换花销大。

七十三线程:密集I/O任务(互联网I/O,磁盘I/O,数据库I/O卡塔 尔(阿拉伯语:قطر‎使用多线程合适。
threading.Thread、multiprocessing.dummy
症结:同叁个日子切条只好运营一个线程,不可能到位高并行,不过能够完结高并发。

协程:又称微线程,在单线程上实行多个职务,用函数切换,花费十分的小。不通过操作系统调节,未有经过、线程的切换花费。genvent,monkey.patchall

三十二线程央浼重返是冬辰的,那几个线程有多少重返就管理特别线程,而协程再次来到的数目是稳步的。

劣点:单线程实施,管理密集CPU和本土磁盘IO的时候,品质超级低。管理互联网I/O质量依旧比较高.

 

下边以那几个网站为例,选用两种格局爬取。爬取前250名的电影。。

 通过深入分析网页开掘第2页的url start=25,第3页的url start=50,第3页的start=75。因而能够得出那几个网址每朝气蓬勃页的数局是由此依次增加start这些参数获取的。

日常不看率先页的数码,第意气风发页的远非参照他事他说加以考察价值。

图片 8

 

此番我们首要爬取,电影名字跟评分。只是使用不一致方法去对待下区别点,所以数据方面就只是多领取恐怕封存。只是简短的将其爬取下打印出来看看。

先是:采取多进度 , multiprocessing 模块。 当然那么些耗费时间更网络好坏有关。在整整要倡议都平常的动静下耗时15s多。

 

图片 9图片 10

#!/usr/bin/env python2
# -*- coding=utf-8 -*-

from multiprocessing import Process, Queue

import time
from lxml import etree
import requests


class DouBanSpider(Process):
    def __init__(self, url, q):
        # 重写写父类的__init__方法
        super(DouBanSpider, self).__init__()
        self.url = url
        self.q = q
        self.headers = {
            'Host': 'movie.douban.com',
            'Referer': 'https://movie.douban.com/top250?start=225&filter=',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36',
        }

    def run(self):
        self.parse_page()

    def send_request(self,url):
        '''
        用来发送请求的方法
        :return: 返回网页源码
        '''
        # 请求出错时,重复请求3次,
        i = 0
        while i <= 3:
            try:
                print u"[INFO]请求url:" url
                return requests.get(url=url,headers=self.headers).content
            except Exception as e:
                print u'[INFO] %s%s'% (e,url)
                i  = 1

    def parse_page(self):
        '''
        解析网站源码,并采用xpath提取 电影名称和平分放到队列中
        :return:
        '''
        response = self.send_request(self.url)
        html = etree.HTML(response)
        # 获取到一页的电影数据
        node_list = html.xpath("//div[@class='info']")
        for move in node_list:
            # 电影名称
            title = move.xpath('.//a/span/text()')[0]
            # 评分
            score = move.xpath('.//div[@class="bd"]//span[@class="rating_num"]/text()')[0]

            # 将每一部电影的名称跟评分加入到队列
            self.q.put(score   "t"   title)


def main():
    # 创建一个队列用来保存进程获取到的数据
    q = Queue()
    base_url = 'https://movie.douban.com/top250?start='
    # 构造所有url
    url_list = [base_url str(num) for num in range(0,225 1,25)]

    # 保存进程
    Process_list = []
    # 创建并启动进程
    for url in url_list:
        p = DouBanSpider(url,q)
        p.start()
        Process_list.append(p)

    # 让主进程等待子进程执行完成
    for i in Process_list:
        i.join()

    while not q.empty():
        print q.get()

if __name__=="__main__":

    start = time.time()
    main()
    print '[info]耗时:%s'%(time.time()-start)

Process多进度达成

#!/usr/bin/env python2
# -*- coding=utf-8 -*-

from multiprocessing import Process, Queue

import time
from lxml import etree
import requests


class DouBanSpider(Process):
    def __init__(self, url, q):
        # 重写写父类的__init__方法
        super(DouBanSpider, self).__init__()
        self.url = url
        self.q = q
        self.headers = {
            'Host': 'movie.douban.com',
            'Referer': 'https://movie.douban.com/top250?start=225&filter=',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36',
        }

    def run(self):
        self.parse_page()

    def send_request(self,url):
        '''
        用来发送请求的方法
        :return: 返回网页源码
        '''
        # 请求出错时,重复请求3次,
        i = 0
        while i <= 3:
            try:
                print u"[INFO]请求url:" url
                return requests.get(url=url,headers=self.headers).content
            except Exception as e:
                print u'[INFO] %s%s'% (e,url)
                i  = 1

    def parse_page(self):
        '''
        解析网站源码,并采用xpath提取 电影名称和平分放到队列中
        :return:
        '''
        response = self.send_request(self.url)
        html = etree.HTML(response)
        # 获取到一页的电影数据
        node_list = html.xpath("//div[@class='info']")
        for move in node_list:
            # 电影名称
            title = move.xpath('.//a/span/text()')[0]
            # 评分
            score = move.xpath('.//div[@class="bd"]//span[@class="rating_num"]/text()')[0]

            # 将每一部电影的名称跟评分加入到队列
            self.q.put(score   "t"   title)


def main():
    # 创建一个队列用来保存进程获取到的数据
    q = Queue()
    base_url = 'https://movie.douban.com/top250?start='
    # 构造所有url
    url_list = [base_url str(num) for num in range(0,225 1,25)]

    # 保存进程
    Process_list = []
    # 创建并启动进程
    for url in url_list:
        p = DouBanSpider(url,q)
        p.start()
        Process_list.append(p)

    # 让主进程等待子进程执行完成
    for i in Process_list:
        i.join()

    while not q.empty():
        print q.get()

if __name__=="__main__":

    start = time.time()
    main()
    print '[info]耗时:%s'%(time.time()-start)

  

图片 11

 

 

 

  接收四十多线程时,耗费时间10.4s

 

图片 12图片 13

#!/usr/bin/env python2
# -*- coding=utf-8 -*-

from threading import Thread
from Queue import Queue
import time
from lxml import etree
import requests


class DouBanSpider(Thread):
    def __init__(self, url, q):
        # 重写写父类的__init__方法
        super(DouBanSpider, self).__init__()
        self.url = url
        self.q = q
        self.headers = {
            'Cookie': 'll="118282"; bid=ctyiEarSLfw; ps=y; __yadk_uid=0Sr85yZ9d4bEeLKhv4w3695OFOPoedzC; dbcl2="155150959:OEu4dds1G1o"; as="https://sec.douban.com/b?r=https://book.douban.com/"; ck=fTrQ; _pk_id.100001.4cf6=c86baf05e448fb8d.1506160776.3.1507290432.1507283501.; _pk_ses.100001.4cf6=*; __utma=30149280.1633528206.1506160772.1507283346.1507290433.3; __utmb=30149280.0.10.1507290433; __utmc=30149280; __utmz=30149280.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); __utma=223695111.1475767059.1506160772.1507283346.1507290433.3; __utmb=223695111.0.10.1507290433; __utmc=223695111; __utmz=223695111.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); push_noty_num=0; push_doumail_num=0',
            'Host': 'movie.douban.com',
            'Referer': 'https://movie.douban.com/top250?start=225&filter=',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36',
        }

    def run(self):
        self.parse_page()

    def send_request(self,url):
        '''
        用来发送请求的方法
        :return: 返回网页源码
        '''
        # 请求出错时,重复请求3次,
        i = 0
        while i <= 3:
            try:
                print u"[INFO]请求url:" url
                html = requests.get(url=url,headers=self.headers).content
            except Exception as e:
                print u'[INFO] %s%s'% (e,url)
                i  = 1
            else:
                return html

    def parse_page(self):
        '''
        解析网站源码,并采用xpath提取 电影名称和平分放到队列中
        :return:
        '''
        response = self.send_request(self.url)
        html = etree.HTML(response)
        # 获取到一页的电影数据
        node_list = html.xpath("//div[@class='info']")
        for move in node_list:
            # 电影名称
            title = move.xpath('.//a/span/text()')[0]
            # 评分
            score = move.xpath('.//div[@class="bd"]//span[@class="rating_num"]/text()')[0]

            # 将每一部电影的名称跟评分加入到队列
            self.q.put(score   "t"   title)


def main():
    # 创建一个队列用来保存进程获取到的数据
    q = Queue()
    base_url = 'https://movie.douban.com/top250?start='
    # 构造所有url
    url_list = [base_url str(num) for num in range(0,225 1,25)]

    # 保存线程
    Thread_list = []
    # 创建并启动线程
    for url in url_list:
        p = DouBanSpider(url,q)
        p.start()
        Thread_list.append(p)

    # 让主线程等待子线程执行完成
    for i in Thread_list:
        i.join()

    while not q.empty():
        print q.get()

if __name__=="__main__":

    start = time.time()
    main()
    print '[info]耗时:%s'%(time.time()-start)

thread

#!/usr/bin/env python2
# -*- coding=utf-8 -*-

from threading import Thread
from Queue import Queue
import time
from lxml import etree
import requests


class DouBanSpider(Thread):
    def __init__(self, url, q):
        # 重写写父类的__init__方法
        super(DouBanSpider, self).__init__()
        self.url = url
        self.q = q
        self.headers = {
            'Cookie': 'll="118282"; bid=ctyiEarSLfw; ps=y; __yadk_uid=0Sr85yZ9d4bEeLKhv4w3695OFOPoedzC; dbcl2="155150959:OEu4dds1G1o"; as="https://sec.douban.com/b?r=https://book.douban.com/"; ck=fTrQ; _pk_id.100001.4cf6=c86baf05e448fb8d.1506160776.3.1507290432.1507283501.; _pk_ses.100001.4cf6=*; __utma=30149280.1633528206.1506160772.1507283346.1507290433.3; __utmb=30149280.0.10.1507290433; __utmc=30149280; __utmz=30149280.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); __utma=223695111.1475767059.1506160772.1507283346.1507290433.3; __utmb=223695111.0.10.1507290433; __utmc=223695111; __utmz=223695111.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); push_noty_num=0; push_doumail_num=0',
            'Host': 'movie.douban.com',
            'Referer': 'https://movie.douban.com/top250?start=225&filter=',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36',
        }

    def run(self):
        self.parse_page()

    def send_request(self,url):
        '''
        用来发送请求的方法
        :return: 返回网页源码
        '''
        # 请求出错时,重复请求3次,
        i = 0
        while i <= 3:
            try:
                print u"[INFO]请求url:" url
                html = requests.get(url=url,headers=self.headers).content
            except Exception as e:
                print u'[INFO] %s%s'% (e,url)
                i  = 1
            else:
                return html

    def parse_page(self):
        '''
        解析网站源码,并采用xpath提取 电影名称和平分放到队列中
        :return:
        '''
        response = self.send_request(self.url)
        html = etree.HTML(response)
        # 获取到一页的电影数据
        node_list = html.xpath("//div[@class='info']")
        for move in node_list:
            # 电影名称
            title = move.xpath('.//a/span/text()')[0]
            # 评分
            score = move.xpath('.//div[@class="bd"]//span[@class="rating_num"]/text()')[0]

            # 将每一部电影的名称跟评分加入到队列
            self.q.put(score   "t"   title)


def main():
    # 创建一个队列用来保存进程获取到的数据
    q = Queue()
    base_url = 'https://movie.douban.com/top250?start='
    # 构造所有url
    url_list = [base_url str(num) for num in range(0,225 1,25)]

    # 保存线程
    Thread_list = []
    # 创建并启动线程
    for url in url_list:
        p = DouBanSpider(url,q)
        p.start()
        Thread_list.append(p)

    # 让主线程等待子线程执行完成
    for i in Thread_list:
        i.join()

    while not q.empty():
        print q.get()

if __name__=="__main__":

    start = time.time()
    main()
    print '[info]耗时:%s'%(time.time()-start)

  

 图片 14

 

 

应用协程爬取,耗费时间15S,

图片 15图片 16

#!/usr/bin/env python2
# -*- coding=utf-8 -*-

from Queue import Queue
import time
from lxml import etree
import requests
import gevent

# 打上猴子补丁
from gevent import monkey
monkey.patch_all()

class DouBanSpider(object):
    def __init__(self):
        # 创建一个队列用来保存进程获取到的数据
        self.q = Queue()
        self.headers = {
            'Cookie': 'll="118282"; bid=ctyiEarSLfw; ps=y; __yadk_uid=0Sr85yZ9d4bEeLKhv4w3695OFOPoedzC; dbcl2="155150959:OEu4dds1G1o"; as="https://sec.douban.com/b?r=https://book.douban.com/"; ck=fTrQ; _pk_id.100001.4cf6=c86baf05e448fb8d.1506160776.3.1507290432.1507283501.; _pk_ses.100001.4cf6=*; __utma=30149280.1633528206.1506160772.1507283346.1507290433.3; __utmb=30149280.0.10.1507290433; __utmc=30149280; __utmz=30149280.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); __utma=223695111.1475767059.1506160772.1507283346.1507290433.3; __utmb=223695111.0.10.1507290433; __utmc=223695111; __utmz=223695111.1506160772.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); push_noty_num=0; push_doumail_num=0',
            'Host': 'movie.douban.com',
            'Referer': 'https://movie.douban.com/top250?start=225&filter=',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36',
        }

    def run(self,url):
        self.parse_page(url)

    def send_request(self,url):
        '''
        用来发送请求的方法
        :return: 返回网页源码
        '''
        # 请求出错时,重复请求3次,
        i = 0
        while i <= 3:
            try:
                print u"[INFO]请求url:" url
                html = requests.get(url=url,headers=self.headers).content
            except Exception as e:
                print u'[INFO] %s%s'% (e,url)
                i  = 1
            else:
                return html

    def parse_page(self,url):
        '''
        解析网站源码,并采用xpath提取 电影名称和平分放到队列中
        :return:
        '''
        response = self.send_request(url)
        html = etree.HTML(response)
        # 获取到一页的电影数据
        node_list = html.xpath("//div[@class='info']")
        for move in node_list:
            # 电影名称
            title = move.xpath('.//a/span/text()')[0]
            # 评分
            score = move.xpath('.//div[@class="bd"]//span[@class="rating_num"]/text()')[0]

            # 将每一部电影的名称跟评分加入到队列
            self.q.put(score   "t"   title)


    def main(self):


        base_url = 'https://movie.douban.com/top250?start='
        # 构造所有url
        url_list = [base_url str(num) for num in range(0,225 1,25)]
        # 创建协程并执行
        job_list = [gevent.spawn(self.run,url) for url in url_list]
        # 让线程等待所有任务完成,再继续执行。
        gevent.joinall(job_list)

        while not self.q.empty():
            print self.q.get()

if __name__=="__main__":
    start = time.time()
    douban = DouBanSpider()
    douban.main()
    print '[info]耗时:%s'%(time.time()-start)

gevent

 

 图片 17

 

 

用了多进度,八线程,协程,达成的代码都相似,没有测量试验出明显的老大好!都不分上下,大概跟互联网,只怕服务器配置有关。

但理论上来讲线程,协程在I/O密集的操作质量是要当先进度的。

 

也也许是笔者的章程有毛病,还望大神们请教!

 

本文由星彩网app下载发布于计算机编程,转载请注明出处:牛逼的分分钟就将一个网站爬下来,写爬虫以及

TAG标签: 星彩网app下载
Ctrl+D 将本页面保存为书签,全面了解最新资讯,方便快捷。