怎么用Python分析44万条数据
本篇文章给大家分享的是有关怎么用Python分析44万条数据,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。
站在用户的角度思考问题,与客户深入沟通,找到鹿寨网站设计与鹿寨网站推广的解决方案,凭借多年的经验,让设计与互联网技术结合,创造个性化、用户体验好的作品,建站类型包括:成都网站制作、网站建设、外贸网站建设、企业官网、英文网站、手机端网站、网站推广、申请域名、雅安服务器托管、企业邮箱。业务覆盖鹿寨地区。
有个段子讲“十年文案老司机,不如网易评论区,网易文豪遍地走,评论全部单身狗”,网易云音乐的评论区也一直都是各类文案大神的聚集地。
那么我们普通用户到底如何成为网易云音乐评论里的热评段子手?
让我来分析一下。
获取数据
其实逻辑并不复杂:
爬取歌单列表里的所有歌单url。
进入每篇歌单爬取所有歌曲url,去重。
进入每首歌曲首页爬取热评,汇总。
歌单列表是这样的:
翻页并观察它的url变化,注意下方动图,每次翻页末尾变化35。
采用requests+pyquery来爬取。
在学习过程中有什么不懂得可以加我的 python学习交流扣扣qun,784758214 群里有不错的学习视频教程、开发工具与电子书籍。 与你分享python企业当下人才需求及怎么从零基础学习好python,和学习什么内容 def get_list(): list1 = [] for i in range(0,1295,35): url = 'https://music.163.com/discover/playlist/?order=hot&cat=%E5%8D%8E%E8%AF%AD&limit=35&offset='+str(i) print('已成功采集%i页歌单\n' %(i/35+1)) data = [] html = restaurant(url) doc = pq(html) for i in range(1,36): # 一页35个歌单 a = doc('#m-pl-container > li:nth-child(' + str(i) +') > div > a').attr('href') a1 = 'https://music.163.com/api' + a.replace('?','/detail?') data.append(a1) list1.extend(data) time.sleep(5+random.random()) return list1
这样我们就可以获得38页每页35篇歌单,共1300+篇歌单。
下面我们需要进入每篇歌单爬取所有歌曲url,并且要注意最后“去重”,不同歌单可能包含同一首歌曲。
点开一篇歌单,注意红色圈出的id。
观察一下,我们要在每篇歌单下方获取的信息也就是红框圈出的这些,利用刚刚爬取到的歌单id和网易云音乐的api(下一篇文章细讲)可以构造出:
不方便看的话我们解析一下json。
def get_playlist(url): data = [] doc = get_json(url) obj=json.loads(doc) jobs=obj['result']['tracks'] for job in jobs: dic = {} dic['name']=jsonpath.jsonpath(job,'$..name')[0] #歌曲名称 dic['id']=jsonpath.jsonpath(job,'$..id')[0] #歌曲ID data.append(dic) return data
这样我们就获取了所有歌单下的歌曲,记得去重。
#去重 data = data.drop_duplicates(subset=None, keep='first', inplace=True)
剩下就是获取每首歌曲的热评了,与前面获取歌曲类似,也是根据api构造,很容易就找到了。
def get_comments(url,k): data = [] doc = get_json(url) obj=json.loads(doc) jobs=obj['hotComments'] for job in jobs: dic = {} dic['content']=jsonpath.jsonpath(job,'$..content')[0] dic['time']= stampToTime(jsonpath.jsonpath(job,'$..time')[0]) dic['userId']=jsonpath.jsonpath(job['user'],'$..userId')[0] #用户ID dic['nickname']=jsonpath.jsonpath(job['user'],'$..nickname')[0]#用户名 dic['likedCount']=jsonpath.jsonpath(job,'$..likedCount')[0] dic['name']= k data.append(dic) return data
汇总后就获得了44万条音乐热评数据。
数据分析
清洗填充一下。
def data_cleaning(data): cols = data.columns for col in cols: if data[col].dtype == 'object': data[col].fillna('缺失数据', inplace = True) else: data[col].fillna(0, inplace = True) return(data)
按照点赞数排个序。
#排序 df1['likedCount'] = df1['likedCount'].astype('int') df_2 = df1.sort_values(by="likedCount",ascending=False) df_2.head()
再看看哪些热评是被复制粘贴搬来搬去的。
#排序 df_line = df.groupby(['content']).count().reset_index().sort_values(by="name",ascending=False) df_line.head()
第一个和第三个只是末尾有没有句号的区别,可以归为一类。这样的话,重复次数最多个这句话竟然重复了412次,额~~
看看上热评次数次数最多的是哪位大神?从他的身上我们能学到什么经验?
df_user = df.groupby(['userId']).count().reset_index().sort_values(by="name",ascending=False) df_user.head()
按照 user_id 汇总一下,排序。
成功“捕获”一枚“段子手”,上热评次数高达347,我们再看看这位大神究竟都评论些什么?
df_user_max = df.loc[(df['userId'] == 101***770)] df_user_max.head()
这位“失眠的陈先生”看来各种情话娴熟于手啊,下面就以他举例来看看如何成为网易云音乐评论里的热评段子手吧。
数据可视化
先看看这347条评论的赞数分布。
#赞数分布图 import matplotlib.pyplot as plt data = df_user_max['likedCount'] #data.to_csv("df_user_max.csv", index_label="index_label",encoding='utf-8-sig') plt.hist(data,100,normed=True,facecolor='g',alpha=0.9) plt.show()
很明显,赞数并不多,大部分都在500赞之内,几百赞却能跻身热评,这也侧面说明了这些歌曲是比较小众的,看来是经常在新歌区广撒网。
我们使用len() 求出每条评论的字符串长度,再画个分布图
评论的字数集中在18—30字之间,这说明在留言时要注意字数,保险的做法是不要太长让人读不下去,也不要太短以免不够经典。
做个词云。
可以看出他的评论风格是以一首歌使他“想起”“感觉”为开头,宾语通常是“喜欢的女孩子”,也经常用”她”来指代。寄托的情感是“后悔”“悲伤”,感慨的终点是“放下”。
以上就是怎么用Python分析44万条数据,小编相信有部分知识点可能是我们日常工作会见到或用到的。希望你能通过这篇文章学到更多知识。更多详情敬请关注创新互联行业资讯频道。
文章题目:怎么用Python分析44万条数据
URL地址:http://pwwzsj.com/article/gehshp.html