目录
  • 一、前言
  • 二、前期准备
    • 1、使用的软件
    • 2、需要用的模块
    • 3、模块安装问题
    • 4、如何配置pycharm里面的python解释器?
    • 5、pycharm如何安装插件?
  • 三、思路
    • 1、明确需求
    • 2、发送请求
    • 3、获取数据
    • 4、解析数据
    • 5、保存数据
  • 四、代码部分 

    一、前言

    好不容易女神喊我去看电影,但是她又不知道看啥,那么我当然得准备准备~

    二、前期准备

    1、使用的软件

    python 3.8 开源 免费的 (统一 3.8)

    pycharm yyds python最好用的编辑器 不接受反驳…

    2、需要用的模块

    requests >>> 数据请求模块 pip install requests

    parsel   >>> 数据解析模块 pip install parsel

    csv

    3、模块安装问题

    模块安装问题:

    1)、如何安装python第三方模块:

    第一种:win + r 输入 cmd 点击确定, 输入安装命令 pip install 模块名 (pip install requests) 回车。

    第二种:在pycharm中点击terminal(终端) 输入安装命令

    2)安装失败原因:

    第一种: pip 不是内部命令

    解决方法: 设置环境变量

    第二种: 出现大量报红 (read time out)

    解决方法: 因为是网络链接超时, 需要切换镜像源。

    清华:https://pypi.tuna.tsinghua.edu.cn/simple
    阿里云:http://mirrors.aliyun.com/pypi/simple/
    中国科技大学 https://pypi.mirrors.ustc.edu.cn/simple/
    华中理工大学:http://pypi.hustunique.com/
    山东理工大学:http://pypi.sdutlinux.org/
    豆瓣:http://pypi.douban.com/simple/
    例如:pip3 install -i https://pypi.doubanio.com/simple/ 模块名

    第三种: cmd里面显示已经安装过了, 或者安装成功了, 但是在pycharm里面还是无法导入。

    解决方法: 可能安装了多个python版本 (anaconda 或者 python 安装一个即可) 卸载一个就好,或者你pycharm里面python解释器没有设置好。

    4、如何配置pycharm里面的python解释器?

    如何配置pycharm里面的python解释器?

    1. 选择file(文件) >>> setting(设置) >>> project(项目) >>> python interpreter(python解释器)
    2. 点击齿轮, 选择add
    3. 添加python安装路径

    5、pycharm如何安装插件?

    1. 选择file(文件) >>> setting(设置) >>> plugins(插件);
    2. 点击 marketplace 输入想要安装的插件名字 比如:翻译插件 输入 translation;
    3. 选择相应的插件点击 install(安装) 即可;
    4. 安装成功之后 是会弹出 重启pycharm的选项 点击确定, 重启即可生效;

    三、思路

    爬虫获取数据是要分析服务器返回的数据内容,无论你爬取任何网站数据,都是可以按照这个几步骤来。

    1、明确需求

    我们要爬取的内容是什么 https://movie.douban.com/top250,要分析我们的想要数据, 可以从哪里获取/哪里来的… (数据来源分析)

    用开发者工具进行抓包(数据包)分析,静态网页/网页上面看到的数据内容,在网页源代码里面都有。

    2、发送请求

    开发者工具里面headers ,对于那个网址发送请求,发送什么样的请求,携带那些请求头参数。

    3、获取数据

    获取服务器返回的数据内容,看服务器数据格式是什么样的,或者说我们想要的数据是什么样的;

    获取文本数据 response.text

    获取服务器json字典数据 response.json()

    获取二进制数据 response.content

    保存视频/音频/图片/特定格式的文件内容, 都是获取二进制数据;

    4、解析数据

    提供我们想要的数据内容

    5、保存数据

    保存本地

    四、代码部分 

    import requests  # 数据请求模块 pip install requests
    import parsel  # 数据解析模块 pip install parsel
    import csv  # 保存表格数据
    
    f = open('豆瓣数据.csv', mode='a', encoding='utf-8', newline='')
    # 快速批量替换 全选内容 使用正则表达式 替换内容
    csv_writer = csv.dictwriter(f, fieldnames=[
        '电影名字',
        '导演',
        '主演',
        '年份',
        '国家',
        '电影类型',
        '评论人数',
        '评分',
        '概述',
        '详情页',
    ])
    csv_writer.writeheader()
    for page in range(0, 250, 25):
        url = f'https://movie.douban.com/top250?start={page}&filter='
        # headers 请求头 用来伪装python代码 为了防止爬虫程序被服务器识别出来,
        # user-agent 浏览器的基本标识 用户代理 直接复制粘贴的
        #python学习交流群872937351 ,免费领取视频/电子书/解答等等
        # 披着羊皮的狼  爬虫程序 >>> 狼  headers >>> 羊皮  服务器数据 >>> 羊圈
        headers = {
            'user-agent': 'mozilla/5.0 (windows nt 10.0; win64; x64) applewebkit/537.36 (khtml, like gecko) chrome/96.0.4664.45 safari/537.36'
        }
        # 发送请求 get
        # 通过requests数据请求模块里面get请求方法 对于 url以及发送请求并且携带header请求头, 最后用response变量接收返回数据
        response = requests.get(url=url, headers=headers)
        # 获取数据
        # print(response.text)
        # 解析数据 re正则表达式 css选择器 xpath 那一种更方便 更加舒服 就用哪一个
        # json 键值对取值
        # 提取我们想要的数据内容
        # 把获取下来的 response.text 网页字符串数据 转成selector 对象
        selector = parsel.selector(response.text)
        # <selector xpath=none data='<html lang="zh-cn" class="ua-windows ...'> 对象    # css选择器 根据标签属性提取数据
        # 第一次解析数据, 获取所有li标签
        lis = selector.css('.grid_view li')  # css选择器语法
        # selector.xpath('//*[@class="grid_view"]/li') # xpath写法
        # [] 列表, 如果说我想要一一提取列表里面的元素 怎么做?
        for li in lis:
            try:
                # span:nth-child(1) 组合选择器  表示的选择第几个span标签
                # 1 选择第一个span标签 text 获取标签文本数据
                title = li.css('.hd a span:nth-child(1)::text').get()
                href = li.css('.hd a::attr(href)').get()  # 详情页
                # li.xpath('//*[@class="hd"]/a/span(1)/text()').get()
                # get返回字符串数据 getall 是返回列表数据
                # get获取第一个标签数据 getall 获取所有的
                move_info = li.css('.bd p::text').getall()
                actor_list = move_info[0].strip().split('   ')  # 列表索引位置取值
                # print(actor_list)
                date_list = move_info[1].strip().split('/')  # 列表索引位置取值
                director = actor_list[0].replace('导演: ', '').strip()  # 导演
                actor = actor_list[1].replace('主演: ', '').replace('/', '').replace('...', '') # 演员
                date = date_list[0].strip()  # 年份
                country = date_list[1].strip()  # 国家
                move_type = date_list[2].strip()  # 电影类型
                comment = li.css('.star span:nth-child(4)::text').get().replace('人评价', '')  # 评论人数
                star = li.css('.star span:nth-child(2)::text').get()  # 星级
                world = li.css('.inq::text').get()  # 概述
                # 字符串的高级方法
                # replace() 字符串替换的方法  strip() 去除字符串左右两端的空格 split() 分割 之后返回的列表
                # 字符串如何去除空格呢?
                # print(title, actor_list, date_list)
                dit = {
                    '电影名字': title,
                    '导演': director,
                    '主演': actor,
                    '年份': date,
                    '国家': country,
                    '电影类型': move_type,
                    '评论人数': comment,
                    '评分': star,
                    '概述': world,
                    '详情页': href,
                }
                csv_writer.writerow(dit)
                print(title, director, actor, date, country, move_type, comment, star, world, href, sep=' | ')
            except:
                pass

    到此这篇关于python爬虫实现热门电影信息采集的文章就介绍到这了,更多相关python爬虫采集信息内容请搜索www.887551.com以前的文章或继续浏览下面的相关文章希望大家以后多多支持www.887551.com!