新聞中心
前端時(shí)間閑的無聊, 對(duì)Python興趣徒增。學(xué)習(xí)這事兒吧,光看沒用,還是要是實(shí)戰(zhàn),順手搜了一些寫的不錯(cuò)的開源庫(kù),也看了些博客??偨Y(jié)一些,分享給大家。

為資溪等地區(qū)用戶提供了全套網(wǎng)頁(yè)設(shè)計(jì)制作服務(wù),及資溪網(wǎng)站建設(shè)行業(yè)解決方案。主營(yíng)業(yè)務(wù)為成都做網(wǎng)站、網(wǎng)站建設(shè)、資溪網(wǎng)站設(shè)計(jì),以傳統(tǒng)方式定制建設(shè)網(wǎng)站,并提供域名空間備案等一條龍服務(wù),秉承以專業(yè)、用心的態(tài)度為用戶提供真誠(chéng)的服務(wù)。我們深信只要達(dá)到每一位用戶的要求,就會(huì)得到認(rèn)可,從而選擇與我們長(zhǎng)期合作。這樣,我們也可以走得更遠(yuǎn)!
[[230152]]
學(xué)Python,想必大家都是從爬蟲開始的吧。畢竟網(wǎng)上類似的資源很豐富,開源項(xiàng)目也非常多。
Python學(xué)習(xí)網(wǎng)絡(luò)爬蟲主要分3個(gè)大的版塊:抓取,分析,存儲(chǔ)
當(dāng)我們?cè)跒g覽器中輸入一個(gè)url后回車,后臺(tái)會(huì)發(fā)生什么?比如說你輸入http://www.tuotiao.com,你就會(huì)看到頭條站首頁(yè)。
簡(jiǎn)單來說這段過程發(fā)生了以下四個(gè)步驟:
-
查找域名對(duì)應(yīng)的IP地址。
-
向IP對(duì)應(yīng)的服務(wù)器發(fā)送請(qǐng)求。
-
服務(wù)器響應(yīng)請(qǐng)求,發(fā)回網(wǎng)頁(yè)內(nèi)容。
-
瀏覽器解析網(wǎng)頁(yè)內(nèi)容。
網(wǎng)絡(luò)爬蟲要做的,簡(jiǎn)單來說,就是實(shí)現(xiàn)瀏覽器的功能。通過指定url,直接返回給用戶所需要的數(shù)據(jù),而不需要一步步人工去操縱瀏覽器獲取。
抓取這一步,你要明確要得到的內(nèi)容是什么?是HTML源碼,還是Json格式的字符串等。將得到內(nèi)容逐一解析就好。具體的如何解析,以及如何處理數(shù)據(jù),文章后面提供了非常詳細(xì)的且功能強(qiáng)大的開源庫(kù)列表。
當(dāng)然了,爬去別人家的數(shù)據(jù),很有可能會(huì)遭遇反爬蟲機(jī)制的,怎么辦?使用代理。
適用情況:限制IP地址情況,也可解決由于“頻繁點(diǎn)擊”而需要輸入驗(yàn)證碼登陸的情況。
這種情況***的辦法就是維護(hù)一個(gè)代理IP池,網(wǎng)上有很多免費(fèi)的代理IP,良莠不齊,可以通過篩選找到能用的。
對(duì)于“頻繁點(diǎn)擊”的情況,我們還可以通過限制爬蟲訪問網(wǎng)站的頻率來避免被網(wǎng)站禁掉。
有些網(wǎng)站會(huì)檢查你是不是真的瀏覽器訪問,還是機(jī)器自動(dòng)訪問的。這種情況,加上User-Agent,表明你是瀏覽器訪問即可。有時(shí)還會(huì)檢查是否帶Referer信息還會(huì)檢查你的Referer是否合法,一般再加上Referer。也就是偽裝成瀏覽器,或者反“反盜鏈”。
對(duì)于網(wǎng)站有驗(yàn)證碼的情況,我們有三種辦法:
-
使用代理,更新IP。
-
使用cookie登陸。
-
驗(yàn)證碼識(shí)別。
接下來我們重點(diǎn)聊聊驗(yàn)證碼識(shí)別。
可以利用開源的Tesseract-OCR系統(tǒng)進(jìn)行驗(yàn)證碼圖片的下載及識(shí)別,將識(shí)別的字符傳到爬蟲系統(tǒng)進(jìn)行模擬登陸。當(dāng)然也可以將驗(yàn)證碼圖片上傳到打碼平臺(tái)上進(jìn)行識(shí)別。如果不成功,可以再次更新驗(yàn)證碼識(shí)別,直到成功為止。
好了,爬蟲就簡(jiǎn)單聊到這兒,有興趣的朋友可以去網(wǎng)上搜索更詳細(xì)的內(nèi)容。
文末附上本文重點(diǎn):實(shí)用Python庫(kù)大全。
網(wǎng)絡(luò)
-
urllib -網(wǎng)絡(luò)庫(kù)(stdlib)。
-
requests -網(wǎng)絡(luò)庫(kù)。
-
grab – 網(wǎng)絡(luò)庫(kù)(基于pycurl)。
-
pycurl – 網(wǎng)絡(luò)庫(kù)(綁定libcurl)。
-
urllib3 – Python HTTP庫(kù),安全連接池、支持文件post、可用性高。
-
httplib2 – 網(wǎng)絡(luò)庫(kù)。
-
RoboBrowser – 一個(gè)簡(jiǎn)單的、***Python風(fēng)格的Python庫(kù),無需獨(dú)立的瀏覽器即可瀏覽網(wǎng)頁(yè)。
-
MechanicalSoup -一個(gè)與網(wǎng)站自動(dòng)交互Python庫(kù)。
-
mechanize -有狀態(tài)、可編程的Web瀏覽庫(kù)。
-
socket – 底層網(wǎng)絡(luò)接口(stdlib)。
網(wǎng)絡(luò)爬蟲框架
-
grab – 網(wǎng)絡(luò)爬蟲框架(基于pycurl/multicur)。
-
scrapy – 網(wǎng)絡(luò)爬蟲框架。
-
pyspider – 一個(gè)強(qiáng)大的爬蟲系統(tǒng)。
-
cola – 一個(gè)分布式爬蟲框架。
HTML/XML解析器
-
lxml – C語(yǔ)言編寫高效HTML/ XML處理庫(kù)。支持XPath。
-
cssselect – 解析DOM樹和CSS選擇器。
-
pyquery – 解析DOM樹和jQuery選擇器。
-
BeautifulSoup – 低效HTML/ XML處理庫(kù),純Python實(shí)現(xiàn)。
-
html5lib – 根據(jù)WHATWG規(guī)范生成HTML/ XML文檔的DOM。該規(guī)范被用在現(xiàn)在所有的瀏覽器上。
-
feedparser – 解析RSS/ATOM feeds。
-
MarkupSafe – 為XML/HTML/XHTML提供了安全轉(zhuǎn)義的字符串。
文本處理
用于解析和操作簡(jiǎn)單文本的庫(kù)。
-
difflib – (Python標(biāo)準(zhǔn)庫(kù))幫助進(jìn)行差異化比較。
-
Levenshtein – 快速計(jì)算Levenshtein距離和字符串相似度。
-
fuzzywuzzy – 模糊字符串匹配。
-
esmre – 正則表達(dá)式加速器。
-
ftfy – 自動(dòng)整理Unicode文本,減少碎片化。
自然語(yǔ)言處理
處理人類語(yǔ)言問題的庫(kù)。
-
NLTK -編寫Python程序來處理人類語(yǔ)言數(shù)據(jù)的***平臺(tái)。
-
Pattern – Python的網(wǎng)絡(luò)挖掘模塊。他有自然語(yǔ)言處理工具,機(jī)器學(xué)習(xí)以及其它。
-
TextBlob – 為深入自然語(yǔ)言處理任務(wù)提供了一致的API。是基于NLTK以及Pattern的巨人之肩上發(fā)展的。
-
jieba – 中文分詞工具。
-
SnowNLP – 中文文本處理庫(kù)。
-
loso – 另一個(gè)中文分詞庫(kù)。
瀏覽器自動(dòng)化與仿真
-
selenium – 自動(dòng)化真正的瀏覽器(Chrome瀏覽器,火狐瀏覽器,Opera瀏覽器,IE瀏覽器)。
-
Ghost.py – 對(duì)PyQt的webkit的封裝(需要PyQT)。
-
Spynner – 對(duì)PyQt的webkit的封裝(需要PyQT)。
-
Splinter – 通用API瀏覽器模擬器(selenium web驅(qū)動(dòng),Django客戶端,Zope)。
多重處理
-
threading – Python標(biāo)準(zhǔn)庫(kù)的線程運(yùn)行。對(duì)于I/O密集型任務(wù)很有效。對(duì)于CPU綁定的任務(wù)沒用,因?yàn)閜ython GIL。
-
multiprocessing – 標(biāo)準(zhǔn)的Python庫(kù)運(yùn)行多進(jìn)程。
-
celery – 基于分布式消息傳遞的異步任務(wù)隊(duì)列/作業(yè)隊(duì)列。
-
concurrent-futures – concurrent-futures 模塊為調(diào)用異步執(zhí)行提供了一個(gè)高層次的接口。
異步
異步網(wǎng)絡(luò)編程庫(kù)
-
asyncio – (在Python 3.4 +版本以上的 Python標(biāo)準(zhǔn)庫(kù))異步I/O,時(shí)間循環(huán),協(xié)同程序和任務(wù)。
-
Twisted – 基于事件驅(qū)動(dòng)的網(wǎng)絡(luò)引擎框架。
-
Tornado – 一個(gè)網(wǎng)絡(luò)框架和異步網(wǎng)絡(luò)庫(kù)。
-
pulsar – Python事件驅(qū)動(dòng)的并發(fā)框架。
-
diesel – Python的基于綠色事件的I/O框架。
-
gevent – 一個(gè)使用greenlet 的基于協(xié)程的Python網(wǎng)絡(luò)庫(kù)。
-
eventlet – 有WSGI支持的異步框架。
-
Tomorrow – 異步代碼的奇妙的修飾語(yǔ)法。
隊(duì)列
-
celery – 基于分布式消息傳遞的異步任務(wù)隊(duì)列/作業(yè)隊(duì)列。
-
huey – 小型多線程任務(wù)隊(duì)列。
-
mrq – Mr. Queue – 使用redis & Gevent 的Python分布式工作任務(wù)隊(duì)列。
-
RQ – 基于Redis的輕量級(jí)任務(wù)隊(duì)列管理器。
-
simpleq – 一個(gè)簡(jiǎn)單的,可***擴(kuò)展,基于Amazon SQS的隊(duì)列。
-
python-gearman – Gearman的Python API。
云計(jì)算
-
picloud – 云端執(zhí)行Python代碼。
-
dominoup.com – 云端執(zhí)行R,Python和matlab代碼
網(wǎng)頁(yè)內(nèi)容提取
提取網(wǎng)頁(yè)內(nèi)容的庫(kù)。
-
HTML頁(yè)面的文本和元數(shù)據(jù)
-
newspaper – 用Python進(jìn)行新聞提取、文章提取和內(nèi)容策展。
-
html2text – 將HTML轉(zhuǎn)為Markdown格式文本。
-
python-goose – HTML內(nèi)容/文章提取器。
-
lassie – 人性化的網(wǎng)頁(yè)內(nèi)容檢索工具
WebSocket
用于WebSocket的庫(kù)。
-
Crossbar – 開源的應(yīng)用消息傳遞路由器(Python實(shí)現(xiàn)的用于Autobahn的WebSocket和WAMP)。
-
AutobahnPython – 提供了WebSocket協(xié)議和WAMP協(xié)議的Python實(shí)現(xiàn)并且開源。
-
WebSocket-for-Python – Python 2和3以及PyPy的WebSocket客戶端和服務(wù)器庫(kù)。
DNS解析
-
dnsyo – 在全球超過1500個(gè)的DNS服務(wù)器上檢查你的DNS。
-
pycares – c-ares的接口。c-ares是進(jìn)行DNS請(qǐng)求和異步名稱決議的C語(yǔ)言庫(kù)。
計(jì)算機(jī)視覺
-
OpenCV – 開源計(jì)算機(jī)視覺庫(kù)。
-
SimpleCV – 用于照相機(jī)、圖像處理、特征提取、格式轉(zhuǎn)換的簡(jiǎn)介,可讀性強(qiáng)的接口(基于OpenCV)。
-
mahotas – 快速計(jì)算機(jī)圖像處理算法(完全使用 C++ 實(shí)現(xiàn)),完全基于 numpy 的數(shù)組作為它的數(shù)據(jù)類型。
代理服務(wù)器
-
shadowsocks – 一個(gè)快速隧道代理,可幫你穿透防火墻(支持TCP和UDP,TFO,多用戶和平滑重啟,目的IP黑名單)。
-
tproxy – tproxy是一個(gè)簡(jiǎn)單的TCP路由代理(第7層),基于Gevent,用Python進(jìn)行配置。
另:
Python有很多Web開發(fā)框架,大而全的開發(fā)框架非Django莫屬,用得也最廣泛.有很多公司有使用Django框架,如某狐,某訊等。以簡(jiǎn)潔著稱的web.py,flask都非常易于上手,以異步高性能著稱的tornado,源代碼寫得美如畫,知乎,Quora都在用。
***祝大家學(xué)的愉快,學(xué)的神速。
文章名稱:Python庫(kù)大全:涵蓋了Python應(yīng)用的方方面面
文章起源:http://m.fisionsoft.com.cn/article/cohdisp.html


咨詢
建站咨詢
