很多從事爬蟲業務的人發現,他們使用了穩定的代理IP,還控制了訪問速度和次數。他們發現有時候爬蟲工作會遇到各種問題,工作無法順利進行。那么,爬蟲使用代理IP后遇到的問題如何解決?
1.分布式爬蟲。爬行時可以采用分布式的方法,有一定幾率起到防爬的作用,也可以提高爬行量。
2.保存cookies。當模擬登錄比較麻煩的時候,可以直接登錄web,刪除cookie保存,然后拿cookie當爬蟲,但這不是長久之計,而且過一段時間cookie也可能失效。
3.多賬號反抓取。很多網站會通過固定時間內賬號訪問的頻率來判斷是不是機器人。這種情況下可以測試單個賬號的固定時間值,然后在時間臨近的時候切換代理IP,這樣就可以循環爬行了。
4.驗證碼問題。爬蟲時間久了經常會遇到驗證碼問題。這是為了驗證你是不是機器人,而不是為了認可你是爬行類機器人。第一種解決方案:這種情況下可以在本地下載驗證碼,手動輸入驗證碼進行驗證。這種方法成本高,不能完全自動捕捉,需要人工干預。第二種解決方案:可以通過圖像識別自動填寫驗證碼,但是現在的驗證碼大多比較復雜,不熟悉圖像識別的話無法識別出正確的驗證碼。第三種解決方案:可以接入自動編碼平臺。這個最方便,但是需要買。
不同的網站有不同的反抓取方式,一套抓取策略不會適用于任何一個網站。所以需要根據具體情況進行分析,不斷測試分析過程,找出這個網站的反爬蟲策略,這樣才能事半功倍。