深度优先、广度优先python爬虫

sunzhihaofuture 2020-06-06

搜索引擎课的一次小实验~

题目是这样的:

以指定网址为根节点,遍历(深度优先、广度优先)访问 50 个页面并爬取这些页面上的所有网址。

代码

import re
import requests
from requests.exceptions import ReadTimeout, ConnectionError, RequestException
import urllib3
# 使用requests访问https时会有SSL验证,需要在get方法时关闭验证,同时会显示警告
urllib3.disable_warnings() # 用该行代码消除警告

visited = [] # 已经访问过(爬取过)的url。访问:即get该页面并取出该页面上的所有url
unvisited = [] # 已经取出的、但是还没有访问的/等待访问的url
url_count = 0 # 已经访问过的url数量
END_COUNT = 50 # 总共需要访问的url数量
end_flag = False # 标志是否该结束了(url_count >= END_COUNT)

# 访问页面:获取指定页面中含有的url
def visit(url, depth):
    visited.append(url) # 将该链接置为访问过
    try:
        req = requests.get(url, verify=False, timeout=5) # verify参数:关闭SSL验证
    except ReadTimeout: # 超时异常
        print(‘Timeout: ‘, url)
         ## 需要把当前的 url 放到任务中,过一段时间再尝试连接
    except ConnectionError: # 连接异常
        print(‘Connection error: ‘, url)
    except RequestException: # 请求异常
        print(‘Error: ‘, url)
    else:
        if req.status_code == 404:
            print(‘404页面不存在: ‘, url)
            ## 把当前的 url 从爬虫任务中删除掉
        if req.status_code == 403:
            print(‘403页面禁止访问: ‘, url)
            ## ... 
        if req.status_code == 200:

            # 如果正确访问,count+1;判断是否结束
            global url_count
            global end_flag
            url_count += 1
            if url_count >= END_COUNT:
                end_flag = True

            print("\t"*depth, "#%d-%d %s"%(depth, url_count, url))

            PATTERN_URl = "<a.*href=\"(https?://.*?)[\"|\‘].*"
            ulist = re.findall(PATTERN_URl, req.text)
            ulist = [url for url in ulist if url.find(".pdf") == -1 ] # 为了防止下载pdf文件,特意跳过了:只保留没有".pdf"后缀的url

            return ulist
    return None


def dfs(url, depth=1):
    ulist = visit(url, depth)
    if ulist:
        ulist = list(set(ulist)-set(visited)) # ulist是局部变量,指的是一个节点的所有子节点
        for url in ulist:
            if depth<3 and not end_flag: # 只访问1、2、3层(根节点是第0层)
                dfs(url, depth+1)


def bfs(url):
    depth = 0
    global unvisited
    unvisited.append([url, depth])

    while(unvisited): # unvisited每个元素是[url, depth]
        [url, depth] = unvisited.pop(0)

        # 只访问1、2层
        if end_flag or depth >= 3:
            break
        
        ulist = visit(url, depth)
        if ulist:
            ulist = list(set(ulist)-set(visited))
            depth += 1 # ulist中的url都是当前url的孩子,所以深度加一
            unvisited = unvisited + [[url, depth] for url in ulist]

if __name__ == ‘__main__‘:
    start_url = "http://www.hzau.edu.cn"
    strategy = input("输入dfs/bfs:")
    if strategy == "dfs":
        print("\t"*0, "#%d %s"%(0, start_url))
        dfs(start_url)
    elif strategy == "bfs":
        bfs(start_url)
    else:
        print("输入格式有误,请重新输入")

结果截图

深度优先、广度优先python爬虫
深度优先、广度优先python爬虫

相关推荐