吾爱破解 - LCG - LSG |安卓破解|病毒分析|www.52pojie.cn

 找回密码
 注册[Register]

QQ登录

只需一步,快速开始

查看: 3244|回复: 25
收起左侧

[Python 转载] python爬虫爬取太原房价和租房价格(安居客)

  [复制链接]
guoqixin 发表于 2021-2-7 18:38
前段时间家里需要买房,但是没有个参考的房价。于是自己用自己学的python爬虫技术去安居客上爬了房价房价:
[Python] 纯文本查看 复制代码
import requests
from bs4 import BeautifulSoup
import csv
headers={'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.104 Safari/537.36'}
lss=[]
for i in range(23):
    url='https://ty.anjuke.com/sale/b253-p{}/?from=esf_list'.format(i)
    html = requests.get(url, headers=headers).text
    soup=BeautifulSoup(html,'lxml')
    divs=soup.find_all('div',class_='property-content-detail')
    list1=[]
    for div in divs:
        m=div.find_all('p',class_='property-content-info-text')[1].text.replace('\n',' ').strip()
        xiaoqu=div.find('p', class_='property-content-info-comm-name').text
        weizhi=div.find('p', class_='property-content-info-comm-address').text
        ls=[]
        ls.append(m)
        ls.append(xiaoqu)
        ls.append(weizhi)
        list1.append(ls)
    jiages=soup.find_all('div',class_='property-price').replace('元/','')
    list2=[]
    for jiage in jiages:
        zongjia=jiage.find('p',class_='property-price-total').text
        danjia=jiage.find('p', class_='property-price-average').text
        ls2=[]
        ls2.append(danjia)
        ls2.append(zongjia)
        list2.append(ls2)
    list=[]
    for i in range(len(list1)):
        list3=list1[i]+list2[i]
        list.append(list3)
        lss.append(list3)
        '''
        for i in list:
            print(i)
        '''
print(lss)
with open('G:/pythondemo/安居客/房价.csv', 'w', newline='') as csvfile:
    writer = csv.writer(csvfile)
    for row in lss:
        writer.writerow(row)

租房:
[Python] 纯文本查看 复制代码
import requests
from bs4 import BeautifulSoup
import time
import csv
headers={'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.104 Safari/537.36'}
lss=[]
for i in range(50):
    print(str((i+1)*60)+'页')
    url='https://ty.zu.anjuke.com/fangyuan/fx1-p{}//'.format(i)
    html = requests.get(url, headers=headers).text
    soup=BeautifulSoup(html,'lxml')
    divs=soup.find_all('div',class_='zu-itemmod')
    for div in divs:
        ls=[]
        m = div.find('address', class_='details-item')
        xiaoqu=m.find('a').text
        m = div.find('address', class_='details-item').text.replace('\n', ' ').strip().replace(' ', '')
        q=len(xiaoqu)
        weizhi=m[q:-1].strip()
        zujin=div.find('div',class_='zu-side').text.replace('\n', ' ').strip().replace(' ', '').replace('元/月','')
        print(zujin)
        ls.append(xiaoqu)
        ls.append(weizhi)
        ls.append(zujin)
        lss.append(ls)
    time.sleep(1)
for i in lss:
    print(i)
with open('G:/pythondemo/安居客/租房.csv', 'w', newline='') as csvfile:
    writer = csv.writer(csvfile)
    for row in lss:
        writer.writerow(row)

免费评分

参与人数 1吾爱币 +1 热心值 +1 收起 理由
growing88 + 1 + 1 谢谢@Thanks!

查看全部评分

发帖前要善用论坛搜索功能,那里可能会有你要找的答案或者已经有人发布过相同内容了,请勿重复发帖。

神隐少年 发表于 2021-2-7 20:53
山西人路过,楼主可以直接公布下爬取结果吗,懒得爬了
 楼主| guoqixin 发表于 2021-2-7 22:34
神隐少年 发表于 2021-2-7 20:53
山西人路过,楼主可以直接公布下爬取结果吗,懒得爬了

好的,只不过这个是小平米的,需要完整的话可以联系我
吾爱蛋蛋 发表于 2021-2-7 20:11
Nemoris丶 发表于 2021-2-7 20:17
不明觉厉
shen12wang 发表于 2021-2-7 20:28
结果呢?
枫叶工作室 发表于 2021-2-7 20:45
爬虫大佬
xuegaoxiansen 发表于 2021-2-7 20:55
然后爬取到好房源了么,公布一下呗
cbxg1992 发表于 2021-2-7 20:55
怎么爬大哥
众益科技 发表于 2021-2-7 21:13
怎么改其它地区的?
青春作伴 发表于 2021-2-7 21:21
难道是种种精彩,尽在下回?
您需要登录后才可以回帖 登录 | 注册[Register]

本版积分规则 警告:本版块禁止灌水或回复与主题无关内容,违者重罚!

快速回复 收藏帖子 返回列表 搜索

RSS订阅|小黑屋|处罚记录|联系我们|吾爱破解 - LCG - LSG ( 京ICP备16042023号 | 京公网安备 11010502030087号 )

GMT+8, 2024-5-5 18:08

Powered by Discuz!

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表