国产片侵犯亲女视频播放_亚洲精品二区_在线免费国产视频_欧美精品一区二区三区在线_少妇久久久_在线观看av不卡

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - python爬取NUS-WIDE數據庫圖片

python爬取NUS-WIDE數據庫圖片

2020-09-09 09:55leo-sun Python

本文給大家分享的是使用Python制作爬蟲爬取圖片的小程序,非常的簡單,但是很實用,有需要的小伙伴可以參考下

實驗室需要NUS-WIDE數據庫中的原圖,數據集的地址為http://lms.comp.nus.edu.sg/research/NUS-WIDE.htm   由于這個數據只給了每個圖片的URL,所以需要一個小爬蟲程序來爬取這些圖片。在圖片的下載過程中建議使用VPN。由于一些URL已經失效,所以會下載一些無效的圖片。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
# PYTHON 2.7   Ubuntu 14.04
nuswide = "$NUS-WIDE-urls_ROOT" #the location of your nus-wide-urls.txt
imagepath = "$IMAGE_ROOT" # path of dataset you want to download in
f = open(nuswide, 'r')
url = f.readlines()
import re
import urllib
import os
reg = r"ImageData.+?jpg"
location_re = re.compile(reg)
reg = r"(ImageData.+?)/0"
direction_re = re.compile(reg)
reg = r"http.+?jpg"
image_re = re.compile(reg)
for i in url:
  filename = re.findall(location_re, i)
  direction = re.findall(direction_re, i)
  image = re.findall(image_re, i)
  if image:
    path = imagepath+filename[0]
    path_n = imagepath+direction[0]
    print path_n
    if os.path.exists(path_n):
      urllib.urlretrieve(image[1], path)
    else:
      os.makedirs(path_n)
      urllib.urlretrieve(image[1], path)

再給大家分享一個爬取百度貼吧圖片的小爬蟲(你懂得)

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
#coding=utf-8
 
#urllib模塊提供了讀取Web頁面數據的接口
import urllib
#re模塊主要包含了正則表達式
import re
#定義一個getHtml()函數
def getHtml(url):
  page = urllib.urlopen(url) #urllib.urlopen()方法用于打開一個URL地址
  html = page.read() #read()方法用于讀取URL上的數據
  return html
 
def getImg(html):
  reg = r'src="(.+?\.jpg)" pic_ext'  #正則表達式,得到圖片地址
  imgre = re.compile(reg)   #re.compile() 可以把正則表達式編譯成一個正則表達式對象.
  imglist = re.findall(imgre,html)   #re.findall() 方法讀取html 中包含 imgre(正則表達式)的  數據
  #把篩選的圖片地址通過for循環遍歷并保存到本地
  #核心是urllib.urlretrieve()方法,直接將遠程數據下載到本地,圖片通過x依次遞增命名
  x = 0
 
  for imgurl in imglist:
  urllib.urlretrieve(imgurl,'D:\E\%s.jpg' % x)
      x+=1
 
 
html = getHtml("http://tieba.baidu.com/p/xxxx")
print getImg(html)

 

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 透逼视频| 亚洲一区二区三区四区五区中文 | 成人在线观看免费 | 亚洲免费美女视频 | 欧美日韩精品免费观看 | 一区二区三区免费在线 | 欧美日韩激情 | 日韩免费视频 | 日韩成人在线网站 | 午夜视频免费在线观看 | 午夜精品一区二区三区在线播放 | 久久综合久久久 | 国产一区欧美 | 亚洲国产精品激情在线观看 | 91亚洲精品乱码久久久久久蜜桃 | 国产精品香蕉在线观看 | 亚洲人成网站b2k3cm | 久久久夜夜夜 | 精品国产一区二区三区忘忧草 | 色爽| 亚洲精品久久久一区二区三区 | 亚洲一区二区视频 | 中文字幕高清视频 | 精品一区二区三区在线观看 | 亚洲视频黄 | 黄色免费在线观看 | 欧洲精品视频在线观看 | 中文字幕日本一区二区 | 一区二区三区久久 | 久久精品无码一区二区三区 | 久久99精品久久久久久琪琪 | 黄色片视频在线观看 | 69久久夜色精品国产69乱www | 国产精品久久国产精品 | 天天操天天干视频 | 午夜小视频在线观看 | 欧美久久久网站 | 免费看黄色一级视频 | 亚洲精品久久久久久久久久久 | 在线电影亚洲 | 伊人一区 |