python爬虫实战之爬取房天下新房数据的示例
这篇文章将为大家详细讲解有关python爬虫实战之爬取房天下新房数据的示例,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
创新互联坚持“要么做到,要么别承诺”的工作理念,服务领域包括:成都网站制作、成都做网站、企业官网、英文网站、手机端网站、网站推广等服务,满足客户于互联网时代的湘潭网站设计、移动媒体设计的需求,帮助企业找到有效的互联网解决方案。努力成为您成熟可靠的网络建设合作伙伴!
本示例主要用到requests库和bs4库,requests库用来获取网页内容,bs4库则是解析网页内容,获取有用数据。
代码中url可切换当地房天下网址。
代码如下
# -*- coding:utf-8 -*- # author:zhoulong ''' 房天下天水新房信息 ''' import requests from bs4 import BeautifulSoup import numpy as np import re URL = 'http://newhouse.tianshui.fang.com/house/s/b91/' HTML = requests.get(URL) SOUP = BeautifulSoup(HTML.content, 'html.parser', from_encoding='gb18030') last_page = SOUP.select('.last') page_number = int(last_page[0]['href'].split('/')[3].split('9')[1])#根据尾页划分页码 url_demo = 'http://newhouse.tianshui.fang.com/house/s/b9{}/'#i+1,name.text.strip(), #房价价格 house_price_list=[] for i in range(1,(page_number+1)): url = url_demo.format(i) html = requests.get(url) soup = BeautifulSoup(html.content,'html.parser',from_encoding='gb18030') names = soup.select('.nlcd_name a')#class定位组合查找 adresses = soup.select('.address a')#查找地址 all_type = soup.findAll(name="span", attrs={"class": re.compile(r"forSale|inSale|outSale|zusale|zushou")})#出售 all_money = soup.findAll(name="div", attrs={"class": re.compile(r"nhouse_price|kanesf")})#价格 for i,name in enumerate(names): print(i+1,' name:'+name.text.strip(),' address:'+''.join(re.split(r'\s+', adresses[i].text.replace('\n','').replace('',''))), all_type[i].text,' house_price: '+all_money[i].text.replace('\n','')) house_price_list.append(re.findall('\d+',all_money[i].text.replace('\n',''))) house_price_list=[int(i[0]) for i in house_price_list if i] print('*'*80) print('* '+' 房价均价:'+str(np.mean(house_price_list))+' '*60+'*') print('* '+' 房价最高价:'+str(np.max(house_price_list))+' '*60+'*') print('* '+' 房价最低价:'+str(np.min(house_price_list))+' '*61+'*') print('*'*80)
执行结果
关于python爬虫实战之爬取房天下新房数据的示例就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
当前标题:python爬虫实战之爬取房天下新房数据的示例
链接分享:http://pwwzsj.com/article/gjceje.html