内射老阿姨1区2区3区4区_久久精品人人做人人爽电影蜜月_久久国产精品亚洲77777_99精品又大又爽又粗少妇毛片

python爬蟲函數詳解 python爬蟲方法

python 爬蟲

驗證碼(CAPTCHA)全稱為全自動區(qū)分計算機和人類的公開圖靈測試(Completely Automated Public Turing test to tell Computersand Humans Apart)。從其全稱可以看出,驗證碼用于測試用戶是真實的人類還是計算機機器人。

站在用戶的角度思考問題,與客戶深入溝通,找到新會網站設計與新會網站推廣的解決方案,憑借多年的經驗,讓設計與互聯(lián)網技術結合,創(chuàng)造個性化、用戶體驗好的作品,建站類型包括:成都網站建設、成都網站制作、企業(yè)官網、英文網站、手機端網站、網站推廣、國際域名空間、虛擬主機、企業(yè)郵箱。業(yè)務覆蓋新會地區(qū)。

1.獲得驗證碼圖片

每次加載注冊網頁都會顯示不同的驗證驗圖像,為了了解表單需要哪些參數,我們可以復用上一章編寫的parse_form()函數。

import cookielib,urllib2,pprint import form REGISTER_URL = '' cj=cookielib.CookieJar() opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cj)) html=opener.open(REGISTER_URL).read() form=form.parse_form(html) pprint.pprint(form)

{'_formkey': 'a67cbc84-f291-4ecd-9c2c-93937faca2e2', '_formname': 'register', '_next': '/places/default/index', 'email': '', 'first_name': '', 'last_name': '', 'password': '', 'password_two': '', 'recaptcha_response_field': None} 123456789101112131415161718

上面recaptcha_response_field是存儲驗證碼的值,其值可以用Pillow從驗證碼圖像獲取出來。先安裝pip install Pillow,其它安裝Pillow的方法可以參考 。Pillow提價了一個便捷的Image類,其中包含了很多用于處理驗證碼圖像的高級方法。下面的函數使用注冊頁的HTML作為輸入參數,返回包含驗證碼圖像的Image對象。

import lxml.html from io import BytesIO from PIL import Image tree=lxml.html.fromstring(html) print tree

Element html at 0x7f8b006ba890 img_data_all=tree.cssselect('div#recaptcha img')[0].get('src') print img_data_all

data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAQAAAABgCAIAAAB9kzvfAACAtklEQVR4nO29Z5gcZ5ku3F2dc865

...

rkJggg== img_data=img_data_all.partition(',')[2] print img_data

iVBORw0KGgoAAAANSUhEUgAAAQAAAABgCAIAAAB9kzvfAACAtklEQVR4nO29Z5gcZ5ku3F2dc865

...

rkJggg== binary_img_data=img_data.decode('base64') file_like=BytesIO(binary_img_data) print file_like

_io.BytesIO object at 0x7f8aff6736b0 img=Image.open(file_like) print img

PIL.PngImagePlugin.PngImageFile image mode=RGB size=256x96 at 0x7F8AFF5FAC90 12345678910111213141516171819202122232425

在本例中,這是一張進行了Base64編碼的PNG圖像,這種格式會使用ASCII編碼表示二進制數據。我們可以通過在第一個逗號處分割的方法移除該前綴。然后,使用Base64解碼圖像數據,回到最初的二進制格式。要想加載圖像,PIL需要一個類似文件的接口,所以在傳給Image類之前,我們以使用了BytesIO對這個二進制數據進行了封裝。

完整代碼:

# -*- coding: utf-8 -*-form.pyimport urllibimport urllib2import cookielibfrom io import BytesIOimport lxml.htmlfrom PIL import Image

REGISTER_URL = ''#REGISTER_URL = ''def extract_image(html):

tree = lxml.html.fromstring(html)

img_data = tree.cssselect('div#recaptcha img')[0].get('src') # remove data:image/png;base64, header

img_data = img_data.partition(',')[-1] #open('test_.png', 'wb').write(data.decode('base64'))

binary_img_data = img_data.decode('base64')

file_like = BytesIO(binary_img_data)

img = Image.open(file_like) #img.save('test.png')

return imgdef parse_form(html):

"""extract all input properties from the form

"""

tree = lxml.html.fromstring(html)

data = {} for e in tree.cssselect('form input'): if e.get('name'):

data[e.get('name')] = e.get('value') return datadef register(first_name, last_name, email, password, captcha_fn):

cj = cookielib.CookieJar()

opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))

html = opener.open(REGISTER_URL).read()

form = parse_form(html)

form['first_name'] = first_name

form['last_name'] = last_name

form['email'] = email

form['password'] = form['password_two'] = password

img = extract_image(html)#

captcha = captcha_fn(img)#

form['recaptcha_response_field'] = captcha

encoded_data = urllib.urlencode(form)

request = urllib2.Request(REGISTER_URL, encoded_data)

response = opener.open(request)

success = '/user/register' not in response.geturl() #success = '/places/default/user/register' not in response.geturl()

return success12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152

2.光學字符識別驗證碼

光學字符識別(Optical Character Recognition, OCR)用于圖像中抽取文本。本節(jié)中,我們將使用開源的Tesseract OCR引擎,該引擎最初由惠普公司開發(fā)的,目前由Google主導。Tesseract的安裝說明可以從 獲取。然后可以使用pip安裝其Python封裝版本pytesseractpip install pytesseract。

下面我們用光學字符識別圖像驗證碼:

import pytesseract import form img=form.extract_image(html) pytesseract.image_to_string(img)'' 123456

如果直接把驗證碼原始圖像傳給pytesseract,一般不能解析出來。這是因為Tesseract是抽取更加典型的文本,比如背景統(tǒng)一的書頁。下面我們進行去除背景噪音,只保留文本部分。驗證碼文本一般都是黑色的,背景則會更加明亮,所以我們可以通過檢查是否為黑色將文本分離出來,該處理過程又被稱為閾值化。

img.save('2captcha_1original.png') gray=img.convert('L') gray.save('2captcha_2gray.png') bw=gray.point(lambda x:0 if x1 else 255,'1') bw.save('2captcha_3thresholded.png') 1234567

這里只有閾值小于1的像素(全黑)都會保留下來,分別得到三張圖像:原始驗證碼圖像、轉換后的灰度圖和閾值化處理后的黑白圖像。最后我們將閾值化處理后黑白圖像再進行Tesseract處理,驗證碼中的文字已經被成功抽取出來了。

pytesseract.image_to_string(bw)'language' import Image,pytesseract img=Image.open('2captcha_3thresholded.png') pytesseract.image_to_string(img)'language' 123456789

我們通過示例樣本測試,100張驗證碼能正確識別出90張。

import ocr ocr.test_samples()

Accuracy: 90/100 1234

下面是注冊賬號完整代碼:

# -*- coding: utf-8 -*-import csvimport stringfrom PIL import Imageimport pytesseractfrom form import registerdef main():

print register('Wu1', 'Being1', 'Wu_Being001@qq.com', 'example', ocr)def ocr(img):

# threshold the image to ignore background and keep text

gray = img.convert('L') #gray.save('captcha_greyscale.png')

bw = gray.point(lambda x: 0 if x 1 else 255, '1') #bw.save('captcha_threshold.png')

word = pytesseract.image_to_string(bw)

ascii_word = ''.join(c for c in word if c in string.letters).lower() return ascii_wordif __name__ == '__main__':

main()1234567891011121314151617181920212223

我們可以進一步改善OCR性能:

- 實驗不同閾值

- 腐蝕閾值文本,突出字符形狀

- 調整圖像大小

- 根據驗證碼字體訓練ORC工具

- 限制結果為字典單詞

如何用Python做爬蟲

1)首先你要明白爬蟲怎樣工作。

想象你是一只蜘蛛,現在你被放到了互聯(lián)“網”上。那么,你需要把所有的網頁都看一遍。怎么辦呢?沒問題呀,你就隨便從某個地方開始,比如說人民日報的首頁,這個叫initial pages,用$表示吧。

在人民日報的首頁,你看到那個頁面引向的各種鏈接。于是你很開心地從爬到了“國內新聞”那個頁面。太好了,這樣你就已經爬完了倆頁面(首頁和國內新聞)!暫且不用管爬下來的頁面怎么處理的,你就想象你把這個頁面完完整整抄成了個html放到了你身上。

突然你發(fā)現, 在國內新聞這個頁面上,有一個鏈接鏈回“首頁”。作為一只聰明的蜘蛛,你肯定知道你不用爬回去的吧,因為你已經看過了啊。所以,你需要用你的腦子,存下你已經看過的頁面地址。這樣,每次看到一個可能需要爬的新鏈接,你就先查查你腦子里是不是已經去過這個頁面地址。如果去過,那就別去了。

好的,理論上如果所有的頁面可以從initial page達到的話,那么可以證明你一定可以爬完所有的網頁。

那么在python里怎么實現呢?

很簡單

import Queue

initial_page = "初始化頁"

url_queue = Queue.Queue()

seen = set()

seen.insert(initial_page)

url_queue.put(initial_page)

while(True): #一直進行直到??菔癄€

if url_queue.size()0:

current_url = url_queue.get() #拿出隊例中第一個的url

store(current_url) #把這個url代表的網頁存儲好

for next_url in extract_urls(current_url): #提取把這個url里鏈向的url

if next_url not in seen:

seen.put(next_url)

url_queue.put(next_url)

else:

break

寫得已經很偽代碼了。

所有的爬蟲的backbone都在這里,下面分析一下為什么爬蟲事實上是個非常復雜的東西——搜索引擎公司通常有一整個團隊來維護和開發(fā)。

2)效率

如果你直接加工一下上面的代碼直接運行的話,你需要一整年才能爬下整個豆瓣的內容。更別說Google這樣的搜索引擎需要爬下全網的內容了。

問題出在哪呢?需要爬的網頁實在太多太多了,而上面的代碼太慢太慢了。設想全網有N個網站,那么分析一下判重的復雜度就是N*log(N),因為所有網頁要遍歷一次,而每次判重用set的話需要log(N)的復雜度。OK,OK,我知道python的set實現是hash——不過這樣還是太慢了,至少內存使用效率不高。

通常的判重做法是怎樣呢?Bloom Filter. 簡單講它仍然是一種hash的方法,但是它的特點是,它可以使用固定的內存(不隨url的數量而增長)以O(1)的效率判定url是否已經在set中??上煜聸]有白吃的午餐,它的唯一問題在于,如果這個url不在set中,BF可以100%確定這個url沒有看過。但是如果這個url在set中,它會告訴你:這個url應該已經出現過,不過我有2%的不確定性。注意這里的不確定性在你分配的內存足夠大的時候,可以變得很小很少。一個簡單的教程:Bloom Filters by Example

注意到這個特點,url如果被看過,那么可能以小概率重復看一看(沒關系,多看看不會累死)。但是如果沒被看過,一定會被看一下(這個很重要,不然我們就要漏掉一些網頁了!)。 [IMPORTANT: 此段有問題,請暫時略過]

好,現在已經接近處理判重最快的方法了。另外一個瓶頸——你只有一臺機器。不管你的帶寬有多大,只要你的機器下載網頁的速度是瓶頸的話,那么你只有加快這個速度。用一臺機子不夠的話——用很多臺吧!當然,我們假設每臺機子都已經進了最大的效率——使用多線程(python的話,多進程吧)。

3)集群化抓取

爬取豆瓣的時候,我總共用了100多臺機器晝夜不停地運行了一個月。想象如果只用一臺機子你就得運行100個月了...

那么,假設你現在有100臺機器可以用,怎么用python實現一個分布式的爬取算法呢?

我們把這100臺中的99臺運算能力較小的機器叫作slave,另外一臺較大的機器叫作master,那么回顧上面代碼中的url_queue,如果我們能把這個queue放到這臺master機器上,所有的slave都可以通過網絡跟master聯(lián)通,每當一個slave完成下載一個網頁,就向master請求一個新的網頁來抓取。而每次slave新抓到一個網頁,就把這個網頁上所有的鏈接送到master的queue里去。同樣,bloom filter也放到master上,但是現在master只發(fā)送確定沒有被訪問過的url給slave。Bloom Filter放到master的內存里,而被訪問過的url放到運行在master上的Redis里,這樣保證所有操作都是O(1)。(至少平攤是O(1),Redis的訪問效率見:LINSERT – Redis)

考慮如何用python實現:

在各臺slave上裝好scrapy,那么各臺機子就變成了一臺有抓取能力的slave,在master上裝好Redis和rq用作分布式隊列。

代碼于是寫成

#slave.py

current_url = request_from_master()

to_send = []

for next_url in extract_urls(current_url):

to_send.append(next_url)

store(current_url);

send_to_master(to_send)

#master.py

distributed_queue = DistributedQueue()

bf = BloomFilter()

initial_pages = ""

while(True):

if request == 'GET':

if distributed_queue.size()0:

send(distributed_queue.get())

else:

break

elif request == 'POST':

bf.put(request.url)

好的,其實你能想到,有人已經給你寫好了你需要的:darkrho/scrapy-redis · GitHub

4)展望及后處理

雖然上面用很多“簡單”,但是真正要實現一個商業(yè)規(guī)??捎玫呐老x并不是一件容易的事。上面的代碼用來爬一個整體的網站幾乎沒有太大的問題。

但是如果附加上你需要這些后續(xù)處理,比如

有效地存儲(數據庫應該怎樣安排)

有效地判重(這里指網頁判重,咱可不想把人民日報和抄襲它的大民日報都爬一遍)

有效地信息抽?。ū热缭趺礃映槿〕鼍W頁上所有的地址抽取出來,“朝陽區(qū)奮進路中華道”),搜索引擎通常不需要存儲所有的信息,比如圖片我存來干嘛...

及時更新(預測這個網頁多久會更新一次)

如你所想,這里每一個點都可以供很多研究者十數年的研究。雖然如此,

“路漫漫其修遠兮,吾將上下而求索”。

所以,不要問怎么入門,直接上路就好了:)

python爬蟲---爬取LOL云頂之弈數據

本來是想爬取之后作最佳羈絆組合推算,但是遇到知識點無法消化(知識圖譜),所以暫時先不組合了,實力有限

庫的安裝

1.requests? #爬取棋子數據

2.json? #棋子數據為js動態(tài),需使用json解析

3.BeautifulSoup

實戰(zhàn)前先新建個lol文件夾作為工作目錄,并創(chuàng)建子目錄data,用于存放數據。

1.爬取數據,新建個py文件,用于爬取云頂數據,命名為data.py

1.1定義個req函數,方便讀取。//需設定編碼格式,否則會出現亂碼

def Re_data(url):

re = requests.get(url)

re.encoding = 'gbk'

data = json.loads(re.text)

return data['data']

1.2定義個Get函數,用于讀取數據并使用保存函數進行保存數據,保存格式為json。

def Get_data():

# 獲取數據并保存至data目錄

base_url = ''

chess = Re_data(base_url + 'chess.js')

race = Re_data(base_url + 'race.js')

job = Re_data(base_url + 'job.js')

equip = Re_data(base_url + 'equip.js')

Save_data(chess,race,job,equip)

1.3定義save函數實現讀取的數據進行文件保存,保存目錄為工作目錄下的data文件夾。

def Save_data(t_chess,t_race,t_job,t_equip):

with open('./data/chess.json','w') as f:

json.dump(t_chess,f,indent='\t')

with open('./data/race.json','w') as f:

json.dump(t_race,f,indent='\t')

with open('./data/job.json','w') as f:

json.dump(t_job,f,indent='\t')

with open('./data/equip.json','w') as f:

json.dump(t_equip,f,indent='\t')

1.4定義主函數main跑起來

if __name__ == '__main__':

start = time.time()

Get_data()

print('運行時間:' + str(time.time() - start) + '秒')

至此,數據爬取完成。

2.種族和職業(yè)進行組合。

2.1未完成 //未完成,使用窮舉方法進行組合會出現內存不夠導致組合失?。╢or循環(huán)嵌套導致數組內存超限)

//待學習,使用知識圖譜建立組合優(yōu)選,可參考:

期間遇到的問題:

1.爬取棋子數據時為動態(tài)js加載,需通過json模塊的loads方法獲取

2.3層for循環(huán)嵌套數據量大,導致計算失敗,需優(yōu)化計算方法。

網站題目:python爬蟲函數詳解 python爬蟲方法
轉載注明:http://m.rwnh.cn/article8/doopjip.html

成都網站建設公司_創(chuàng)新互聯(lián),為您提供移動網站建設網站排名、網站內鏈網站改版、用戶體驗軟件開發(fā)

廣告

聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)

成都網頁設計公司
若尔盖县| 桦南县| 云南省| 汝南县| 高州市| 桑植县| 栖霞市| 西峡县| 新巴尔虎右旗| 酒泉市| 常德市| 富源县| 米脂县| 乌拉特前旗| 屯昌县| 嘉荫县| 太康县| 龙陵县| 南陵县| 正阳县| 蓝田县| 大渡口区| 天峨县| 雅安市| 崇阳县| 青神县| 贵定县| 黄龙县| 洛宁县| 龙里县| 公主岭市| 无极县| 涟源市| 新河县| 黑河市| 个旧市| 丹阳市| 增城市| 紫阳县| 交城县| 万荣县|