如何通过代理池在Python爬虫中实现IP更换以规避反爬虫机制?

2026-04-20 05:281阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐

本文共计540个文字,预计阅读时间需要3分钟。

如何通过代理池在Python爬虫中实现IP更换以规避反爬虫机制?

0. 前言 周日在访问一个国外网站时,发现频繁发起请求,且请求次数过快,导致我的服务器IP被封锁。于是我在网上找到了一些Python代理池开源项目,这里选择的是‘’。

0. 前言

周日在爬一个国外网站的时候,发现用协程并发请求,并且请求次数太快的时候,会出现对方把我的服务器IP封掉的情况。于是网上找了一下开源的python代理池,这里选择的是star数比较多的proxy_pool

如何通过代理池在Python爬虫中实现IP更换以规避反爬虫机制?

1. 安装环境

# 安装python虚拟环境, python环境最好为python3.6,再往上的话,安装依赖时会报错 sudo apt update sudo apt install python3.6 pip3 install virtualenv virtualenv venv --python=python3.6 source venv/bin/activate # 安装redis sudo apt install redis-server # 启动redis server redis-server

2. 安装依赖

git clone github.com/jhao104/proxy_pool.git cd proxy_pool pip install -r requirements.txt

3. 修改配置文件

# 修改setting.py # 配置API服务 HOST = "0.0.0.0" # IP PORT = 5010 # 监听端口 # 配置数据库 # 以下为三个示例,根据redis的配置,选择其中一种即可 # 一般启动redis时如果没有配置文件,那么选择第一种即可 # 1. Redis IP: 127.0.0.1 Port: 6379 DB_CONN = 'redis://@127.0.0.1:6379' # 2. Redis IP: 127.0.0.1 Port: 6379 Password: 123456 DB_CONN = 'redis://:123456@127.0.0.1:6379' # 3. Redis IP: 127.0.0.1 Port: 6379 Password: 123456 DB: 15 DB_CONN = 'redis://:123456@127.0.0.1:6379/15' # 配置 ProxyFetcher PROXY_FETCHER = [ "freeProxy01", # 这里是启用的代理抓取方法名,所有fetch方法位于fetcher/proxyFetcher.py "freeProxy02", # .... ]

4. 启动

# 可以用tmux开三个窗口 # 启动调度程序 python proxyPool.py schedule # 启动webApi服务 python proxyPool.py server

5. 测试

import requests def get_proxy(): return requests.get("127.0.0.1:5010/get/").json() def delete_proxy(proxy): requests.get("127.0.0.1:5010/delete/?proxy={}".format(proxy)) # your spider code def getHtml(): # .... retry_count = 5 proxy = get_proxy().get("proxy") while retry_count > 0: try: html = requests.get('www.example.com', proxies={"{}".format(proxy)}) # 使用代理访问 return html except Exception: retry_count -= 1 # 删除代理池中代理 delete_proxy(proxy) return None

更多的用法和文档请参考:document 和 github.com/jhao104/proxy_pool

到此这篇关于python爬虫利用代理池更换IP的方法步骤的文章就介绍到这了,更多相关python 代理池更换IP内容请搜索易盾网络以前的文章或继续浏览下面的相关文章希望大家以后多多支持易盾网络!

标签:方法步骤

本文共计540个文字,预计阅读时间需要3分钟。

如何通过代理池在Python爬虫中实现IP更换以规避反爬虫机制?

0. 前言 周日在访问一个国外网站时,发现频繁发起请求,且请求次数过快,导致我的服务器IP被封锁。于是我在网上找到了一些Python代理池开源项目,这里选择的是‘’。

0. 前言

周日在爬一个国外网站的时候,发现用协程并发请求,并且请求次数太快的时候,会出现对方把我的服务器IP封掉的情况。于是网上找了一下开源的python代理池,这里选择的是star数比较多的proxy_pool

如何通过代理池在Python爬虫中实现IP更换以规避反爬虫机制?

1. 安装环境

# 安装python虚拟环境, python环境最好为python3.6,再往上的话,安装依赖时会报错 sudo apt update sudo apt install python3.6 pip3 install virtualenv virtualenv venv --python=python3.6 source venv/bin/activate # 安装redis sudo apt install redis-server # 启动redis server redis-server

2. 安装依赖

git clone github.com/jhao104/proxy_pool.git cd proxy_pool pip install -r requirements.txt

3. 修改配置文件

# 修改setting.py # 配置API服务 HOST = "0.0.0.0" # IP PORT = 5010 # 监听端口 # 配置数据库 # 以下为三个示例,根据redis的配置,选择其中一种即可 # 一般启动redis时如果没有配置文件,那么选择第一种即可 # 1. Redis IP: 127.0.0.1 Port: 6379 DB_CONN = 'redis://@127.0.0.1:6379' # 2. Redis IP: 127.0.0.1 Port: 6379 Password: 123456 DB_CONN = 'redis://:123456@127.0.0.1:6379' # 3. Redis IP: 127.0.0.1 Port: 6379 Password: 123456 DB: 15 DB_CONN = 'redis://:123456@127.0.0.1:6379/15' # 配置 ProxyFetcher PROXY_FETCHER = [ "freeProxy01", # 这里是启用的代理抓取方法名,所有fetch方法位于fetcher/proxyFetcher.py "freeProxy02", # .... ]

4. 启动

# 可以用tmux开三个窗口 # 启动调度程序 python proxyPool.py schedule # 启动webApi服务 python proxyPool.py server

5. 测试

import requests def get_proxy(): return requests.get("127.0.0.1:5010/get/").json() def delete_proxy(proxy): requests.get("127.0.0.1:5010/delete/?proxy={}".format(proxy)) # your spider code def getHtml(): # .... retry_count = 5 proxy = get_proxy().get("proxy") while retry_count > 0: try: html = requests.get('www.example.com', proxies={"{}".format(proxy)}) # 使用代理访问 return html except Exception: retry_count -= 1 # 删除代理池中代理 delete_proxy(proxy) return None

更多的用法和文档请参考:document 和 github.com/jhao104/proxy_pool

到此这篇关于python爬虫利用代理池更换IP的方法步骤的文章就介绍到这了,更多相关python 代理池更换IP内容请搜索易盾网络以前的文章或继续浏览下面的相关文章希望大家以后多多支持易盾网络!

标签:方法步骤