鍍金池/ 教程/ Python/ 利用 urllib2 通過指定的 URL 抓取網(wǎng)頁內(nèi)容
一個簡單的百度貼吧的小爬蟲
亮劍!爬蟲框架小抓抓 Scrapy 閃亮登場!
Opener 與 Handler 的介紹和實例應用
百度貼吧的網(wǎng)絡(luò)爬蟲(v0.4)源碼及解析
異常的處理和 HTTP 狀態(tài)碼的分類
利用 urllib2 通過指定的 URL 抓取網(wǎng)頁內(nèi)容
Python 中的正則表達式教程
爬蟲框架 Scrapy 的第一個爬蟲示例入門教程
抓取網(wǎng)頁的含義和 URL 基本構(gòu)成
urllib2 的使用細節(jié)與抓站技巧
一個爬蟲的誕生全過程(以山東大學績點運算為例)
糗事百科的網(wǎng)絡(luò)爬蟲(v0.3)源碼及解析(簡化更新)

利用 urllib2 通過指定的 URL 抓取網(wǎng)頁內(nèi)容

版本號:Python2.7.5,Python3 改動較大,各位另尋教程。所謂網(wǎng)頁抓取,就是把 URL 地址中指定的網(wǎng)絡(luò)資源從網(wǎng)絡(luò)流中讀取出來,保存到本地。類似于使用程序模擬 IE 瀏覽器的功能,把 URL 作為 HTTP 請求的內(nèi)容發(fā)送到服務器端, 然后讀取服務器端的響應資源。

在 Python 中,我們使用 urllib2 這個組件來抓取網(wǎng)頁。urllib2 是 Python 的一個獲取 URLs(Uniform Resource Locators)的組件。它以 urlopen 函數(shù)的形式提供了一個非常簡單的接口。最簡單的 urllib2 的應用代碼只需要四行。我們新建一個文件 urllib2_test01.py 來感受一下 urllib2 的作用:

import urllib2  
response = urllib2.urlopen('http://www.baidu.com/')  
html = response.read()  
print html  

按下 F5 可以看到運行的結(jié)果:

http://wiki.jikexueyuan.com/project/python-crawler/images/1.png" alt="" />

我們可以打開百度主頁,右擊,選擇查看源代碼(火狐 OR 谷歌瀏覽器均可),會發(fā)現(xiàn)也是完全一樣的內(nèi)容。也就是說,上面這四行代碼將我們訪問百度時瀏覽器收到的代碼們?nèi)看蛴×顺鰜?。這就是一個最簡單的 urllib2 的例子。

除了"http:",URL同樣可以使用"ftp:","file:"等等來替代。HTTP 是基于請求和應答機制的:客戶端提出請求,服務端提供應答。

urllib2 用一個 Request 對象來映射你提出的 HTTP 請求。在它最簡單的使用形式中你將用你要請求的地址創(chuàng)建一個 Reques t 對象,通過調(diào)用 urlopen 并傳入 Request 對象,將返回一個相關(guān)請求 response 對象,這個應答對象如同一個文件對象,所以你可以在 Response 中調(diào)用 .read()。

我們新建一個文件 urllib2_test02.py 來感受一下:

import urllib2    
req = urllib2.Request('http://www.baidu.com')    
response = urllib2.urlopen(req)    
the_page = response.read()    
print the_page  

可以看到輸出的內(nèi)容和 test01 是一樣的。 urllib2 使用相同的接口處理所有的 URL 頭。例如你可以像下面那樣創(chuàng)建一個 ftp 請求。

req = urllib2.Request('ftp://example.com/')  

在 HTTP 請求時,允許你做額外的兩件事。

發(fā)送 data 表單數(shù)據(jù)

這個內(nèi)容相信做過 Web 端的都不會陌生,有時候你希望發(fā)送一些數(shù)據(jù)到 URL(通常 URL 與 CGI[通用網(wǎng)關(guān)接口]腳本,或其他 WEB 應用程序掛接)。 在 HTTP 中,這個經(jīng)常使用熟知的 POST 請求發(fā)送。這個通常在你提交一個 HTML 表單時由你的瀏覽器來做。并不是所有的 POSTs 都來源于表單,你能夠使用 POST 提交任意的數(shù)據(jù)到你自己的程序。一般的 HTML 表單,data 需要編碼成標準形式。然后做為 data 參數(shù)傳到 Request 對象。編碼工作使用 urllib 的函數(shù)而非 urllib2。我們新建一個文件 urllib2_test03.py 來感受一下:

import urllib    
import urllib2    

url = 'http://www.someserver.com/register.cgi'    

values = {'name' : 'WHY',    
          'location' : 'SDU',    
          'language' : 'Python' }    

data = urllib.urlencode(values) # 編碼工作  
req = urllib2.Request(url, data)  # 發(fā)送請求同時傳data表單  
response = urllib2.urlopen(req)  #接受反饋的信息  
the_page = response.read()  #讀取反饋的內(nèi)容  

如果沒有傳送 data 參數(shù),urllib2 使用 GET 方式的請求。GET 和 POST 請求的不同之處是 POST 請求通常有"副作用",它們會由于某種途徑改變系統(tǒng)狀態(tài)(例如提交成堆垃圾到你的門口)。Data 同樣可以通過在 Get 請求的 URL 本身上面編碼來傳送。

import urllib2    
import urllib  

data = {}  

data['name'] = 'WHY'    
data['location'] = 'SDU'    
data['language'] = 'Python'  

url_values = urllib.urlencode(data)    
print url_values  

name=Somebody+Here&language=Python&location=Northampton    
url = 'http://www.example.com/example.cgi'    
full_url = url + '?' + url_values  

data = urllib2.open(full_url)    

這樣就實現(xiàn)了 Data 數(shù)據(jù)的 Get 傳送。

設(shè)置 Headers 到 http 請求

有一些站點不喜歡被程序(非人為訪問)訪問,或者發(fā)送不同版本的內(nèi)容到不同的瀏覽器。 默認的 urllib2 把自己作為“Python-urllib/x.y”(x 和 y 是 Python 主版本和次版本號,例如 Python-urllib/2.7)。

這個身份可能會讓站點迷惑,或者干脆不工作。瀏覽器確認自己身份是通過 User-Agent 頭,當你創(chuàng)建了一個請求對象,你可以給他一個包含頭數(shù)據(jù)的字典。下面的例子發(fā)送跟上面一樣的內(nèi)容,但把自身模擬成 Internet Explorer。 (多謝大家的提醒,現(xiàn)在這個 Demo 已經(jīng)不可用了,不過原理還是那樣的)。

import urllib    
import urllib2    

url = 'http://www.someserver.com/cgi-bin/register.cgi'  

user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'    
values = {'name' : 'WHY',    
          'location' : 'SDU',    
          'language' : 'Python' }    

headers = { 'User-Agent' : user_agent }    
data = urllib.urlencode(values)    
req = urllib2.Request(url, data, headers)    
response = urllib2.urlopen(req)    
the_page = response.read()