当前位置:首页 > 生活百科

python爬虫案例讲解(简单python爬虫完整代码)

栏目:生活百科日期:2025-02-14浏览:0

今天要分享的教程是爬取各大城市的二手房数据,抛开以前的文章不谈,下面的内容应该足够你实现这篇爬虫。以下是正文:

一、确定目标

今天我们的目标官网链接是链家网

ok,前提条件交代清楚了,接下来看看今天要爬取的目标数据

两个页面需要注意,第一个页面是你打开上面那个链接之后显示的列表页面,第二个页面是你点击某个二手房的链接之后跳转的房屋详细数据页面

1、先来说第一个页面

这个页面包括三部分,最上面的搜索部分、中间的列表部分、下面的翻页部分。

上面的搜索部分看似无用,但其实是官方强行设置的一个小操作。

举个最直观的例子:在某个搜索条件下,例如深圳市,对应的清单中有 39053 条记录

而你将页面拉到最下面进行翻页,发现实际只有 100 页可供操作

根据每一页只有 30 条数据的官方设置,你如果不设置搜索条件,只能拿到 3000 条数据

所以,要想获取全部数据,第一个搜索功能就派上用场了。

但是,添加搜索必然会导致整个程序的复杂度直线上升,特别是现在有如此多的搜索条件

综上,最好的解决方式是筛选出 重要且能完美区分的搜索条件,例如:区域+户型+朝向

上述设置的目的是:

通过条件设置之后,通过筛选 xx区 的数据,发现数据大于 3000条,则利用户型是 x居室 的进行二次筛选,如果发现仍大于 3000条,再次通过 朝x 进行三次筛选

基本上到了第三次筛选之后,数据会在 3000以内,对应的可以全部拿到。

其他筛选条件应该也能实现同样的效果,这个自己设定即可

对了,筛选条件除了每个城市的区域没法固定外,居室和朝向都是固定的

通过F12查看源码可以看到居室和朝向对应的系统定位如下:

对应的,在代码中也就可以将其进行映射:

#户型:一室、二室、三室、四室、五室、五室+self.rooms_number=&['l1','l2','l3','l4','l5','l6']#朝向:朝东+朝南+朝西+朝北+南北self.orientation=&['f1','f2','f3','f4','f5']

再来看中间的列表部分

列表部分有 3 个信息需要注意,如下图:

分别是:小区名+区域、其他标签、价格

如果这些字段信息已经可以满足你的数据需求,那对应的爬虫只需要获取这个页面的数据,不需要分析第二个页面,相对来说比较简单

如果你需要更详细的二手房指标,例如:挂牌时间、抵押情况、产权等,以及该房子的经纬度数据,那你需要分析第二个页面

最后是下面的翻页部分

翻页部分原理比较简单,通过多次点击下一页按钮,观察新页面的 url 链接就能发现规律

例如:
https://sz.lianjia.com/ershoufang/luohuqu/pg2l1/ 中的 pg2 对应的是第二页的数据

而 l1 在前面我们已经知道是一居室的意思,所以对应的翻页页面的 url 规则应该是:主页+区域+pg页码+居室

在翻页遍历的过程中只需要更改 pg页码 即可。

2、再来说第二个页面

第二个页面是通过第一个页面点击跳转的,我举个例子:

通过点击图中上面的标签,会跳转到下面链接对应的新页面

链接中后面的数字编号对应的是该二手房的编码id。

第二个页面有三个部分,分别是:价格+位置、基本信息+交易信息、地图

价格+位置部分数据如下图:

从价格部分可以获取到:参考总价、单价

从所在区域可以获取到:小区名称、大区域+小区域

基本信息+交易信息数据如下图:

因为这张图上的数据比较全,所以我并没有解析上张图的其他数据

这张图上的基本属性和交易属性都可以拿下来作为房屋字段

最后是地图部分的数据

这部分数据比较多,例如:最近的地铁站点、公交站点等

以及在地图插件中隐藏的房屋经纬度数据

因为以前的文章专门爬过地铁站点数据,所以我在这里只拿了经纬度数据

二、流程设计

目标已经明确,总结一下上面我们需要注意的地方,大概如下:

首先,判断该城市的总数据是否超过 3000 条,若超过则需要设置筛选条件。先通过区域进行筛选,其次通过居室进行筛选,最后通过朝向进行筛选

上述筛选过程中任一过程若存在数据小于 3000条,则停止往下筛选。

其次,在确定筛选条件之后,通过解析每一页的二手房链接跳转到详情页。翻页操作只需要根据页码重新构造 url 即可

最后,对二手房详情页进行解析,保存数据到本地文件中。

为了方便对整个流程进行复现,我做了一个流程图,如下:

三、主要代码复现

通过上面的流程图,可以完成整个爬虫的代码复现

因为涉及的代码较多,这里只贴核心代码,完整的代码可以在文末获取

首先是获取当前条件下的房屋数据个数:

defget_house_count(self):"""获取当前筛选条件下的房屋数据个数"""#爬取区域起始页面的数据response=requests.get(url=self.current_url,headers=self.headers)#通过BeautifulSoup进行页面解析soup=BeautifulSoup(response.text,'html.parser')#获取数据总条数count=soup.find('h3',class_='totalfl').find('span').string.lstrip()returnsoup,count

其次是主页面的设计:

判断是否超过3000,若超过则进行第二级筛选,若未超过则直接获取数据

defget_main_page(self):#获取当前筛选条件下数据总条数soup,count_main=self.get_house_count()#如果当前当前筛选条件下的数据个数大于最大可查询个数,则设置第一次查询条件ifint(count_main)&>self.page_size*self.max_pages:#获取当前地市的所有行政区域,当做第一个查询条件soup_uls=soup.find('p',attrs={'data-role':'ershoufang'}).p.find_all('a')self.area=self.get_area_list(soup_uls)#遍历行政区域,重新生成筛选条件forareainself.area:self.get_area_page(area)else:#直接获取数据self.get_pages(int(count_main),'','','')#保存数据到本地self.data_to_csv()

对应的在确定区域的条件下,继续判断并筛选居室

在确定区域和居室的条件下,继续判断并筛选朝向

在确定区域、居室和朝向的条件下,直接获取 前3000条 数据

可以看到上面的流程十分类似,对应的代码大家注意看源码就行。

如果在三级筛选下仍存在超过3000条数据,照葫芦画瓢就行

在代码执行的过程中,建议每获取到 10条 数据保存一次,避免中途程序出错而前功尽弃

对应的代码可以参考如下:

'''超过10条数据,保存到本地'''iflen(self.data_info)&>=10:self.data_to_csv()

在保存到本地 csv 的时候,建议采用追加的方式进行保存

也就是在 data_to_csv 函数中这样写:

defdata_to_csv(self):"""保存/追加数据到本地@return:"""df_data=pd.DataFrame(self.data_info)ifos.path.exists(self.save_file_path)andos.path.getsize(self.save_file_path):#追加写入文件df_data.to_csv(self.save_file_path,mode='a',encoding='utf-8',header=False,index=False)else:#写入文件,带表头df_data.to_csv(self.save_file_path,mode='a',encoding='utf-8',index=False)#清空当前数据集self.data_info=&[]

另外,考虑到大多时候需要运行好几次程序才能获取到所有数据

在每次运行程序的时候先统计已经爬到的房屋数据,跳过已经爬到的数据

对应的代码可以这样写:

#所有已经保存的房屋id,用来验证去重self.house_id=self.get_exists_house_id()defget_exists_house_id(self):"""通过已经爬取到的房屋信息,并获取房屋id@return:"""ifos.path.exists(self.save_file_path):df_data=pd.read_csv(self.save_file_path,encoding='utf-8',)df_data&['house_id']=df_data&['house_id'].astype(str)returndf_data&['house_id'].to_list()else:return&[]

最后,在主函数中只需要设置城市名称和数据保存路径即可

代码如下:

if__name__=='__main__':city_number='sz'city_name='深圳'url='https://{0}.lianjia.com/ershoufang/'.format(city_number)page_size=30save_file_path='二手房数据-sz.csv'house=House(city_name,url,page_size,save_file_path)house.get_main_page()

完整的代码可以在文末获取

四、程序运行截图

如果是第一次运行程序,设置好相关参数后,运行截图如下:

如果之前有运行过程序,中途退出了。

再次运行时无需设置参数,直接运行即可,截图如下:

最终爬取到的部分数据如下:

“python爬虫案例讲解(简单python爬虫完整代码)” 的相关文章

什么是品牌整合营销,浅析整合营销简单例子

文丨公关之家作者:小5引言:整合营销将企业信息通过更优的方式传递给消费者、合作伙伴,让企业学会与受众沟通,充分理解其需求,避免资源浪费的一种营销手段。单一的推广...

2020年北京中山学院怎么样(浅谈中山学院细则)

在山的那边,海的那边,有一群大学生!他们活泼又聪明,他们调皮又伶俐&…”不少大学生都会忍不住吐槽:“曾以为上了大学就是新一轮的解放,谁知道只不过是从...

医院营销案例分析,了解医院营销手段和方法

越是竞争激烈的行业,营销活动越是层出不穷,特别是在整形行业里做营销的最多,而整形行业获客的方式大概又分为渠道模式与直客模式。今天分享的这家整形医院是渠道免费模式...

云集分销模式是什么,云集营销模式和营销策略

争议声中,裹挟相当势能的新兴社交电商平台云集一路疾行。此时它距离登陆纳斯达克,已仅剩最后的几步。它是如何做到的,它果真能够成为第二个拼多多吗?“你是咨询开店的吗...

mysql的可视化工具有哪些(mysql数据库基础知识)

MySQL名字的来历MySQL是一个小型关系型数据库管理系统,开发者为瑞典MySQLAB公司,在2008年1月16号被Sun公司收购。MySQL被广泛地应用在I...

免费电脑游戏排行榜(永久玩主机游戏的软件)

EPIC每周都会更新一款免费游戏,小伙伴们可以定时去领取,而且EPIC所推出的免费游戏不乏有很多非常好的游戏。目前6月11日&–6月17日所推出的免...

创业加盟好项目介绍,揭秘2020年创业商机

只见一个30岁出头的男人,先拿出剃眉刀,刷刷地,一根根毛发簌簌落下,约40秒后,一款精致的眉型定格在顾客的脸上,然后“一涂、一抹、一拍、一揉”,手法显得娴熟而精...

免费http代理ip提取(十大免费代理ip软件)

如今,需要使用代理IP的地方有很多,例如网络投票、大数据分析、人工智能等领域。那么如何获取代理IP呢?很多人想到了免费代理IP,免费不用钱,岂不美哉。虽然个人不...

在快充时代逆行的苹果

配图来自Canva可画近日,苹果在最新支持文件中警告不要将iPhone12和MagSafe配件太靠近植入式心脏起搏器等医疗设备。此消息一出,让iPhone12用...

ui设计怎么样好学吗(带你全面了解ui设计)

UI设计是互联网时代的设计变革,有界面和软件的时候就存在,但却没有现在这样对UI设计专业能力的重视。很多人现在学习UI设计,有的是看重UI设计月能薪破万的高薪资...