爬取圖片可真的是一個(gè)可遇不可求的機(jī)會(huì)。
有需求就會(huì)動(dòng)力。
目標(biāo):爬取某個(gè)網(wǎng)站上n多頁的鏈接,每個(gè)鏈接有n多張圖片,每一頁對(duì)應(yīng)一個(gè)文件夾,每個(gè)文件夾包含n個(gè)鏈接所對(duì)應(yīng)的文件夾。
步驟1:獲得網(wǎng)頁的所有鏈接,訪問所有鏈接,獲得鏈接里的圖片地址。
這一步通過上一篇文章的學(xué)習(xí),同時(shí)寫好正則匹配,就可以簡單地完成。
步驟2:根據(jù)圖片地址下載圖片。
下載jpg格式的圖片其實(shí)很容易。
1 socket = urllib2.urlopen(url) 2 data = socket.read() 3 with open(path, "wb") as jpg: 4 jpg.write(data) 5 socket.close()
其中url為圖片地址,path為保存路徑。
完成這一步之后,簡單的批量下載圖片功能就完成了。
但是,下載的過程中有幾個(gè)問題。
1、下載速度慢。
我們打開網(wǎng)站的時(shí)候看到圖片的速度在網(wǎng)速不是太慢的情況下其實(shí)也不慢,但是用這種方法下載一張圖片要等很久,有時(shí)卻很快。
2、下著下著就卡在那里了。
它就是卡在那里了,不知道要等到什么時(shí)候報(bào)錯(cuò)。
基于這兩個(gè)問題,我檢索了一些資料,其中這篇文章對(duì)這個(gè)情況有比較好的說明。
后改進(jìn)如下。
1 #設(shè)定超時(shí)時(shí)間,單位為秒,放在程序開頭即可
2 timeout = 60
3 socket.setdefaulttimeout(timeout)
4
5 #下載圖片的時(shí)候
6 time.sleep(10)#先sleep,再讀取數(shù)據(jù)
7 socket = urllib2.urlopen(urllib2.Request(imgurl))
8 data = socket.read()
9 socket.close()
10 ...
其實(shí)這個(gè)改進(jìn)當(dāng)時(shí)在程序中的體現(xiàn)不是很明顯,但是后來我又加入了一個(gè)東西:多線程。
python的多線程有幾種方法可以實(shí)現(xiàn),通過這篇博文可以對(duì)此有所了解。
在這里我采用繼承threading.Thread的方法實(shí)現(xiàn)多線程。
重載run方法。我這里是每下載一個(gè)圖片就開一個(gè)線程(好像不是太好,囧……)。
1 thread = Download() 2 thread.imgurl = imgurl 3 thread.path = path 4 thread.start()
這個(gè)多線程用上以后,整個(gè)程序簡直就像開足了馬力,開始大力地下載。沒一會(huì)功夫就下載了100多M的圖片!
其實(shí)我一開始是有顧慮一個(gè)問題的,就是為什么線程sleep的時(shí)候能夠偷偷地占用系統(tǒng)的時(shí)間?看看這篇文章的實(shí)驗(yàn)。
也就是說,10條線程每個(gè)sleep10秒,結(jié)果也只是花了差不多10秒的時(shí)間。
圖片的下載速度很快,雖然中途有一些處理異常的網(wǎng)址,但是速度飛一般的快。(后來增加了一些異常處理)
很快,開始出現(xiàn)異常了,大量的圖片下載失敗。
研究了很久之后才發(fā)現(xiàn),存儲(chǔ)空間不足……
于是,搬到一個(gè)10G空閑的分區(qū),開始下載,改善異常處理。
最終完成目標(biāo)的時(shí)候大概完成了8G的下載量。不知道是不是流量太大了,今天老是斷網(wǎng)……
同時(shí)嘗試了視頻的下載,這個(gè)功能還有待發(fā)掘。