国产片侵犯亲女视频播放_亚洲精品二区_在线免费国产视频_欧美精品一区二区三区在线_少妇久久久_在线观看av不卡

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - 用python爬取租房網站信息的代碼

用python爬取租房網站信息的代碼

2021-04-29 00:27Struggler09 Python

今天小編就為大家分享一篇關于用python爬取租房網站信息的代碼,小編覺得內容挺不錯的,現在分享給大家,具有很好的參考價值,需要的朋友一起跟隨小編來看看吧

自己在剛學習python時寫的,中途遇到很多問題,查了很多資料,下面就是我爬取租房信息的代碼:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
鏈家的房租網站
兩個導入的包
1.requests 用來過去網頁內容
2.BeautifulSoup
import time
import pymssql
import requests
from bs4 import BeautifulSoup
#  https://wh.lianjia.com/zufang/
#獲取url中下面的內容
def get_page(url):
  responce = requests.get(url)
  soup = BeautifulSoup(responce.text,'lxml')
  return soup
#封裝成函數,作用是獲取列表下的所有租房頁面的鏈接,返回一個鏈接列表
def get_links(url):
  responce = requests.get(url)
  soup = BeautifulSoup(responce.text,'lxml')
  link_div = soup.find_all('div',class_ = 'pic-panel')
  links = [div.a.get('href') for div in link_div]
  return links
#收集一個房子的信息
def get_house_info(house_url):
  soup = get_page(house_url)
  price = soup.find('span',class_='total').text
  unit = soup.find('span',class_= 'unit').text[1:-1]
  area = soup.find('p', class_ = 'lf').text
  house_info= soup.find_all('p',class_ = 'lf')
  area = house_info[0].text[3:] #字符串切片工具
  layout = house_info[1].text[5:]
  info={
    '價格':price,
    '單位':unit,
    '面積':area,
    '戶型':layout
    }
  return info
#鏈接數據庫
server="192.168.xx.xx"  #換成自己的服務器信息
user="liujiepeng"
password="xxxxx"    #自己的數據庫用戶名和密碼
conn=pymssql.connect(server,user,password,database="house")
def insert(conn,house):
  #sql_values = values.format(house['價格'],house['單位'],house['面積'],
                #house['戶型'])
  sql = "insert into [house].dbo.lianjia(price,unit,area,layout)values('%s','%s','%s','%s')"%(house["價格"],house["單位"],house["面積"],house["戶型"])
  print(sql)
  cursor = conn.cursor() #游標,開拓新的窗口
  #cursor1 = conn.cursor()
  cursor.execute(sql) #執行sql語句
  conn.commit() #提交 ,更新sql 語句
links = get_links('https://wh.lianjia.com/zufang/')
count = 1
for link in links:
  #time.sleep(2)
  print('獲取一個數據成功')
  house = get_house_info(link)
  insert(conn,house)
  print("第%s個數據,存入數據庫成功!"%(count))
  count = count+1
  #print(house["價格"],end='\r')

總結

以上就是這篇文章的全部內容了,希望本文的內容對大家的學習或者工作具有一定的參考學習價值,謝謝大家對服務器之家的支持。如果你想了解更多相關內容請查看下面相關鏈接

原文鏈接:https://blog.csdn.net/qq_39486027/article/details/80526094

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 可以看av的网站 | 日韩3级在线观看 | 不用播放器的av | 国产黄色在线观看 | 成年人在线观看视频 | 亚洲一区视频 | 亚洲性片 | 久久1区| 免费av一区二区三区 | 欧美a在线 | 国产精品成人av | 成人免费在线电影 | 欧美精品久久久久 | 国产麻豆一区二区三区四区 | 在线视频一区二区三区 | 四影虎影ww4hu55.com | 中文字幕久热 | 91视频在线播放视频 | 爱色区综合网 | 亚洲区视频| 久久99精品国产麻豆宅宅 | 在线观看成人国产 | 视频一区在线观看 | 久久综合久 | 国产亚洲精品美女久久久久久久久久 | 亚洲精品在线免费 | 在线免费观看中文字幕 | 亚洲精品日韩精品 | av男人的天堂在线 | 成人免费在线观看网址 | 精品1区2区| 91精品国产综合久久久久久丝袜 | 亚洲福利网站 | 丁香久久| а天堂中文最新一区二区三区 | 亚洲视频欧美视频 | 免费观看一级一片 | 性色蜜桃x88av | 欧美 日韩 国产 在线 | 成人自拍视频 | 成人在线观看免费爱爱 |