Python爬虫实战:《战狼2》豆瓣影评分析

2019-02-18 07:45:56 织梦安装使用
  • 文章介绍
hang Python编程

作者:hang

来自:https://segmentfault.com/a/1190000010473819

刚接触python不久,做一个小项目来练练手。前几天看了《战狼2》,发现它在最新上映的电影里面是排行第一的,如下图所示。准备把豆瓣上对它的影评做一个分析。

目标总览

主要做了三件事:

  • 抓取网页数据

  • 清理数据

  • 用词云进行展示 
    使用的python版本是3.5.

一、抓取网页数据

第一步要对网页进行访问,python中使用的是urllib库。代码如下:

  1. from urllib import request

  2. resp = request.urlopen(https://movie.douban.com/nowplaying/hangzhou/)

  3. html_data = resp.read().decode(utf-8)

其中https://movie.douban.com/nowp...是豆瓣最新上映的电影页面,可以在浏览器中输入该网址进行查看。 html_data是字符串类型的变量,里面存放了网页的html代码。 输入 print(html_data)可以查看,如下图所示:

第二步,需要对得到的html代码进行解析,得到里面提取我们需要的数据。 

在python中使用BeautifulSoup库进行html代码的解析。 (注:如果没有安装此库,则使用 pip install BeautifulSoup进行安装即可!) BeautifulSoup使用的格式如下:

  1. BeautifulSoup(html,"html.parser")

第一个参数为需要提取数据的html,第二个参数是指定解析器,然后使用 find_all()读取html标签中的内容。

但是html中有这么多的标签,该读取哪些标签呢?其实,最简单的办法是我们可以打开我们爬取网页的html代码,然后查看我们需要的数据在哪个html标签里面,再进行读取就可以了。如下图所示:

从上图中可以看出在 div id="nowplaying"标签开始是我们想要的数据,里面有电影的名称、评分、主演等信息。所以相应的代码编写如下:

  1. from bs4 import BeautifulSoup as bs

  2. soup = bs(html_data, html.parser)    

  3. nowplaying_movie = soup.find_all(div, id=nowplaying)

  4. nowplaying_movie_list = nowplaying_movie[0].find_all(li, class_=list-item)

其中 nowplaying_movie_list是一个列表,可以用 print(nowplaying_movie_list[0])查看里面的内容,如下图所示:

在上图中可以看到data-subject属性里面放了电影的id号码,而在img标签的alt属性里面放了电影的名字,因此我们就通过这两个属性来得到电影的id和名称。(注:打开电影短评的网页时需要用到电影的id,所以需要对它进行解析),编写代码如下:

  1. nowplaying_list = []

  2. for item in nowplaying_movie_list:        

  3.        nowplaying_dict = {}        

  4.        nowplaying_dict[id] = item[data-subject]      

  5.        for tag_img_item in item.find_all(img):            

  6.            nowplaying_dict[name] = tag_img_item[alt]            

  7.            nowplaying_list.append(nowplaying_dict)  

其中列表nowplaying_list中就存放了最新电影的id和名称,可以使用 print(nowplaying_list)进行查看,如下图所示:

可以看到和豆瓣网址上面是匹配的。这样就得到了最新电影的信息了。接下来就要进行对最新电影短评进行分析了。例如《战狼2》的短评网址为: https://movie.douban.com/subject/26363254/comments?start=0&limit=20 
其中 26363254就是电影的id, start=0表示评论的第0条评论。

接下来接对该网址进行解析了。打开上图中的短评页面的html代码,我们发现关于评论的数据是在 div标签的 comment属性下面,如下图所示:

因此对此标签进行解析,代码如下:

  1. requrl = https://movie.douban.com/subject/ + nowplaying_list[0][id] + /comments +? +start=0 + &limit=20

  2. resp = request.urlopen(requrl)

  3. html_data = resp.read().decode(utf-8)

  4. soup = bs(html_data, html.parser)

  5. comment_div_lits = soup.find_all(div, class_=comment)

此时在 comment_div_lits列表中存放的就是div标签和comment属性下面的html代码了。在上图中还可以发现在p标签下面存放了网友对电影的评论,如下图所示:

因此对 comment_div_lits代码中的html代码继续进行解析,代码如下:

  1. eachCommentList = [];

  2. for item in comment_div_lits:

  3.        if item.find_all(p)[0].string is not None:    

  4.            eachCommentList.append(item.find_all(p)[0].string)

使用 print(eachCommentList)查看eachCommentList列表中的内容,可以看到里面存里我们想要的影评。如下图所示:


好的,至此我们已经爬取了豆瓣最近播放电影的评论数据,接下来就要对数据进行清洗和词云显示了。

二、数据清洗

为了方便进行数据进行清洗,我们将列表中的数据放在一个字符串数组中,代码如下:

  1. comments =

  2. for k in range(len(eachCommentList)):

  3.    comments = comments + (str(eachCommentList[k])).strip()

使用 print(comments)进行查看,如下图所示:

可以看到所有的评论已经变成一个字符串了,但是我们发现评论中还有不少的标点符号等。这些符号对我们进行词频统计时根本没有用,因此要将它们清除。所用的方法是正则表达式。python中正则表达式是通过re模块来实现的。代码如下:

  1. import re

  2. pattern = re.compile(r[u4e00-u9fa5]+)

  3. filterdata = re.findall(pattern, comments)

  4. cleaned_comments = .join(filterdata)

继续使用 print(cleaned_comments)语句进行查看,如下图所示:

我们可以看到此时评论数据中已经没有那些标点符号了,数据变得"干净"了很多。

因此要进行词频统计,所以先要进行中文分词操作。在这里我使用的是结巴分词。如果没有安装结巴分词,可以在控制台使用 pip install jieba进行安装。(注:可以使用 pip list查看是否安装了这些库)。代码如下所示:

  1. import jieba    #分词包

  2. import pandas as pd  

  3. segment = jieba.lcut(cleaned_comments)

  4. words_df=pd.DataFrame({segment:segment})

因为结巴分词要用到pandas,所以我们这里加载了pandas包。可以使用 words_df.head()查看分词之后的结果,如下图所示:


从上图可以看到我们的数据中有"看"、"太"、"的"等虚词(停用词),而这些词在任何场景中都是高频时,并且没有实际的含义,所以我们要他们进行清除。

我把停用词放在一个 stopwords.txt文件中,将我们的数据与停用词进行比对即可(注:只要在百度中输入 stopwords.txt,就可以下载到该文件)。去停用词代码如下代码如下:

  1. stopwords=pd.read_csv("stopwords.txt",index_col=False,quoting=3,sep="t",names=[stopword], encoding=utf-8)#quoting=3全不引用

  2. words_df=words_df[~words_df.segment.isin(stopwords.stopword)]

继续使用 words_df.head()语句来查看结果,如下图所示,停用词已经被出去了。

接下来就要进行词频统计了,代码如下:

  1. import numpy    #numpy计算包

  2. words_stat=words_df.groupby(by=[segment])[segment].agg({"计数":numpy.size})

  3. words_stat=words_stat.reset_index().sort_values(by=["计数"],ascending=False)

用 words_stat.head()进行查看,结果如下:

由于我们前面只是爬取了第一页的评论,所以数据有点少,在最后给出的完整代码中,我爬取了10页的评论,所数据还是有参考价值。

三、用词云进行显示

代码如下:

  1. import matplotlib.pyplot as plt

  2. %matplotlib inline

  3. import matplotlib

  4. matplotlib.rcParams[figure.figsize] = (10.0, 5.0)

  5. from wordcloud import WordCloud#词云包

  6. wordcloud=WordCloud(font_path="simhei.ttf",background_color="white",max_font_size=80) #指定字体类型、字体大小和字体颜色

  7. word_frequence = {x[0]:x[1] for x in words_stat.head(1000).values}

  8. word_frequence_list = []

  9. for key in word_frequence:

  10.    temp = (key,word_frequence[key])

  11.    word_frequence_list.append(temp)

  12. wordcloud=wordcloud.fit_words(word_frequence_list)

  13. plt.imshow(wordcloud)

其中 simhei.ttf使用来指定字体的,可以在百度上输入 simhei.ttf进行下载后,放入程序的根目录即可。显示的图像如下:

到此为止,整个项目的介绍就结束了。由于自己也还是个初学者,接触python不久,代码写的并不好。而且第一次写技术博客,表达的有些冗余,请大家多多包涵,有不对的地方,请大家批评指正。以后我也会将自己做的小项目以这种形式写在博客上和大家一起交流!最后贴上完整的代码。

完整代码

  1. #coding:utf-8

  2. __author__ = hang

  3. import warnings

  4. warnings.filterwarnings("ignore")

  5. import jieba    #分词包

  6. import numpy    #numpy计算包

  7. import codecs   #codecs提供的open方法来指定打开的文件的语言编码,它会在读取的时候自动转换为内部unicode

  8. import re

  9. import pandas as pd  

  10. import matplotlib.pyplot as plt

  11. from urllib import request

  12. from bs4 import BeautifulSoup as bs

  13. %matplotlib inline

  14. import matplotlib

  15. matplotlib.rcParams[figure.figsize] = (10.0, 5.0)

  16. from wordcloud import WordCloud#词云包

  17. #分析网页函数

  18. def getNowPlayingMovie_list():  

  19.    resp = request.urlopen(https://movie.douban.com/nowplaying/hangzhou/)        

  20.    html_data = resp.read().decode(utf-8)    

  21.    soup = bs(html_data, html.parser)    

  22.    nowplaying_movie = soup.find_all(div, id=nowplaying)        

  23.    nowplaying_movie_list = nowplaying_movie[0].find_all(li, class_=list-item)    

  24.    nowplaying_list = []    

  25.    for item in nowplaying_movie_list:        

  26.        nowplaying_dict = {}        

  27.        nowplaying_dict[id] = item[data-subject]      

  28.        for tag_img_item in item.find_all(img):            

  29.            nowplaying_dict[name] = tag_img_item[alt]            

  30.            nowplaying_list.append(nowplaying_dict)    

  31.    return nowplaying_list

  32. #爬取评论函数

  33. def getCommentsById(movieId, pageNum):

  34.    eachCommentList = [];

  35.    if pageNum>0:

  36.         start = (pageNum-1) * 20

  37.    else:

  38.        return False

  39.    requrl = https://movie.douban.com/subject/ + movieId + /comments +? +start= + str(start) + &limit=20

  40.    print(requrl)

  41.    resp = request.urlopen(requrl)

  42.    html_data = resp.read().decode(utf-8)

  43.    soup = bs(html_data, html.parser)

  44.    comment_div_lits = soup.find_all(div, class_=comment)

  45.    for item in comment_div_lits:

  46.        if item.find_all(p)[0].string is not None:    

  47.            eachCommentList.append(item.find_all(p)[0].string)

  48.    return eachCommentList

  49. def main():

  50.    #循环获取第一个电影的前10页评论

  51.    commentList = []

  52.    NowPlayingMovie_list = getNowPlayingMovie_list()

  53.    for i in range(10):    

  54.        num = i + 1

  55.        commentList_temp = getCommentsById(NowPlayingMovie_list[0][id], num)

  56.        commentList.append(commentList_temp)

  57.    #将列表中的数据转换为字符串

  58.    comments =

  59.    for k in range(len(commentList)):

  60.        comments = comments + (str(commentList[k])).strip()

  61.    #使用正则表达式去除标点符号

  62.    pattern = re.compile(r[u4e00-u9fa5]+)

  63.    filterdata = re.findall(pattern, comments)

  64.    cleaned_comments = .join(filterdata)

  65.    #使用结巴分词进行中文分词

  66.    segment = jieba.lcut(cleaned_comments)

  67.    words_df=pd.DataFrame({segment:segment})

  68.    #去掉停用词

  69.    stopwords=pd.read_csv("stopwords.txt",index_col=False,quoting=3,sep="t",names=[stopword], encoding=utf-8)#quoting=3全不引用

  70.    words_df=words_df[~words_df.segment.isin(stopwords.stopword)]

  71.    #统计词频

  72.    words_stat=words_df.groupby(by=[segment])[segment].agg({"计数":numpy.size})

  73.    words_stat=words_stat.reset_index().sort_values(by=["计数"],ascending=False)

  74.    #用词云进行显示

  75.    wordcloud=WordCloud(font_path="simhei.ttf",background_color="white",max_font_size=80)

  76.    word_frequence = {x[0]:x[1] for x in words_stat.head(1000).values}

  77.    word_frequence_list = []

  78.    for key in word_frequence:

  79.        temp = (key,word_frequence[key])

  80.        word_frequence_list.append(temp)

  81.    wordcloud=wordcloud.fit_words(word_frequence_list)

  82.    plt.imshow(wordcloud)

  83. #主函数

  84. main()

结果显示如下:

上图基本反映了《战狼2》这部电影的情况。


●编号374,输入编号直达本文

●输入m获取文章目录

推荐↓↓↓
 

算法与数据结构

更多推荐:18个技术类微信公众号

涵盖:程序人生、算法与数据结构、黑客技术与网络安全、大数据技术、前端开发、Java、Python、Web开发、安卓开发、iOS开发、C/C++、.NET、Linux、数据库、运维等。

    阅读原文

    发送中

    阅读原文

    上一篇: Python爬虫实战题荟萃

    下一篇: 即便预算再多,品牌再大,到了农村..

    相关文档推荐

    精品模板推荐

     2020-07-29   18166  0金币下载

     2020-07-27   65338  0金币下载

     2020-07-27   65333  0金币下载

     2020-06-22   57995  0金币下载

     2020-06-13   62585  0金币下载

     2020-06-13   62587  0金币下载

    专业的织梦模板定制下载站,在线购买后即可下载!

    商业源码

    跟版网模板,累计帮助5000+客户企业成功建站,为草根创业提供助力!

    立刻开启你的建站之旅
    
    QQ在线客服

    服务热线

    织梦建站咨询