在公司做分布式深網(wǎng)爬蟲,搭建了一套穩(wěn)定的代理池服務(wù),為上千個(gè)爬蟲提供有效的代理,保證各個(gè)爬蟲拿到的都是對(duì)應(yīng)網(wǎng)站有效的代理IP,從而保證爬蟲快速穩(wěn)定的運(yùn)行,當(dāng)然在公司做的東" />

国产成人精品无码青草_亚洲国产美女精品久久久久∴_欧美人与鲁交大毛片免费_国产果冻豆传媒麻婆精东

15158846557 在線咨詢 在線咨詢
15158846557 在線咨詢
所在位置: 首頁 > 營銷資訊 > 網(wǎng)站運(yùn)營 > 如何維護(hù)爬蟲程序中的代理ip庫?

如何維護(hù)爬蟲程序中的代理ip庫?

時(shí)間:2023-10-29 21:48:01 | 來源:網(wǎng)站運(yùn)營

時(shí)間:2023-10-29 21:48:01 來源:網(wǎng)站運(yùn)營

如何維護(hù)爬蟲程序中的代理ip庫?:爬蟲代理IP池

在公司做分布式深網(wǎng)爬蟲,搭建了一套穩(wěn)定的代理池服務(wù),為上千個(gè)爬蟲提供有效的代理,保證各個(gè)爬蟲拿到的都是對(duì)應(yīng)網(wǎng)站有效的代理IP,從而保證爬蟲快速穩(wěn)定的運(yùn)行,當(dāng)然在公司做的東西不能開源出來。不過呢,閑暇時(shí)間手癢,所以就想利用一些免費(fèi)的資源搞一個(gè)簡單的代理池服務(wù)。
1、問題

  剛自學(xué)爬蟲的時(shí)候沒有代理IP就去西刺、快代理之類有免費(fèi)代理的網(wǎng)站去爬,還是有個(gè)別代理能用。當(dāng)然,如果你有更好的代理接口也可以自己接入?! ∶赓M(fèi)代理的采集也很簡單,無非就是:訪問頁面頁面 —> 正則/xpath提取 —> 保存

  可以肯定免費(fèi)的代理IP大部分都是不能用的,不然別人為什么還提供付費(fèi)的(不過事實(shí)是很多代理商的付費(fèi)IP也不穩(wěn)定,也有很多是不能用)。所以采集回來的代理IP不能直接使用,可以寫檢測程序不斷的去用這些代理訪問一個(gè)穩(wěn)定的網(wǎng)站,看是否可以正常使用。這個(gè)過程可以使用多線程或異步的方式,因?yàn)闄z測代理是個(gè)很慢的過程。

  這里不得不推薦一個(gè)高性能支持多種數(shù)據(jù)結(jié)構(gòu)的NoSQL數(shù)據(jù)庫SSDB,用于代理Redis。支持隊(duì)列、hash、set、k-v對(duì),支持T級(jí)別數(shù)據(jù)。是做分布式爬蟲很好中間存儲(chǔ)工具。

  答案肯定是做成服務(wù)咯,python有這么多的web框架,隨便拿一個(gè)來寫個(gè)api供爬蟲調(diào)用。這樣有很多好處,比如:當(dāng)爬蟲發(fā)現(xiàn)代理不能使用可以主動(dòng)通過api去delete代理IP,當(dāng)爬蟲發(fā)現(xiàn)代理池IP不夠用時(shí)可以主動(dòng)去refresh代理池。這樣比檢測程序更加靠譜。

2、代理池設(shè)計(jì)

  代理池由四部分組成:

  代理獲取接口,目前有5個(gè)免費(fèi)代理源,每調(diào)用一次就會(huì)抓取這個(gè)5個(gè)網(wǎng)站的最新代理放入DB,可自行添加額外的代理獲取接口;

  用于存放代理IP,現(xiàn)在暫時(shí)只支持SSDB。至于為什么選擇SSDB,大家可以參考這篇文章,個(gè)人覺得SSDB是個(gè)不錯(cuò)的Redis替代方案,如果你沒有用過SSDB,安裝起來也很簡單,可以參考這里;

  計(jì)劃任務(wù)用戶定時(shí)去檢測DB中的代理可用性,刪除不可用的代理。同時(shí)也會(huì)主動(dòng)通過ProxyGetter去獲取最新代理放入DB;

  代理池的外部接口,由于現(xiàn)在這么代理池功能比較簡單,花兩個(gè)小時(shí)看了下Flask,愉快的決定用Flask搞定。功能是給爬蟲提供get/delete/refresh等接口,方便爬蟲直接使用。

3、代碼模塊

  Python中高層次的數(shù)據(jù)結(jié)構(gòu),動(dòng)態(tài)類型和動(dòng)態(tài)綁定,使得它非常適合于快速應(yīng)用開發(fā),也適合于作為膠水語言連接已有的軟件部件。用Python來搞這個(gè)代理IP池也很簡單,代碼分為6個(gè)模塊:

4、安裝

下載代碼:

git clone git@github.com:jhao104/proxy_pool.git或者直接到https://github.com/jhao104/proxy_pool 下載zip文件安裝依賴:

pip install -r requirements.txt啟動(dòng):

需要分別啟動(dòng)定時(shí)任務(wù)和api到Config.ini中配置你的SSDB到Schedule目錄下:>>>python ProxyRefreshSchedule.py到Api目錄下:>>>python ProxyApi.py5、使用

  定時(shí)任務(wù)啟動(dòng)后,會(huì)通過代理獲取方法fetch所有代理放入數(shù)據(jù)庫并驗(yàn)證。此后默認(rèn)每20分鐘會(huì)重復(fù)執(zhí)行一次。定時(shí)任務(wù)啟動(dòng)大概一兩分鐘后,便可在SSDB中看到刷新出來的可用的代理:



啟動(dòng)ProxyApi.py后即可在瀏覽器中使用接口獲取代理,一下是瀏覽器中的截圖:

  index頁面:



get:



get_all:



爬蟲中使用,如果要在爬蟲代碼中使用的話, 可以將此api封裝成函數(shù)直接使用,例如:

import requestsdef get_proxy(): return requests.get("http://127.0.0.1:5000/get/").contentdef delete_proxy(proxy): requests.get("http://127.0.0.1:5000/delete/?proxy={}".format(proxy))# your spider codedef spider(): # .... requests.get('https://www.example.com', proxies={"http": "http://{}".format(get_proxy)}) # ....6、最后

  時(shí)間倉促,功能和代碼都比較簡陋,以后有時(shí)間再改進(jìn)。喜歡的在github上給個(gè)star。感謝!

github項(xiàng)目地址:[https://github.com/jhao104/proxy_pool](https://github.com/jhao104/proxy_pool)?

關(guān)鍵詞:代理,程序,維護(hù),爬蟲

74
73
25
news

版權(quán)所有? 億企邦 1997-2025 保留一切法律許可權(quán)利。

為了最佳展示效果,本站不支持IE9及以下版本的瀏覽器,建議您使用谷歌Chrome瀏覽器。 點(diǎn)擊下載Chrome瀏覽器
關(guān)閉