如何解决使用scrapy在Python爬虫中搭建时出现的错误问题?
- 内容介绍
- 文章标签
- 相关推荐
本文共计341个文字,预计阅读时间需要2分钟。
在先前文章分享后不久,就有位小伙伴跟小编写说在使用Scrapy搭建Python爬虫时遇到了错误。一开始,小伙伴也没看出问题所在,好在经过不断的讨论和测试,最终解决了出错的点。
在之前文章给大家分享后不久,就有位小伙伴跟小编说在用scrapy搭建python爬虫中出现错误了。一开始的时候小编也没有看出哪里有问题,好在经过不断地讨论与测试,最终解决了出错点的问题。有同样出错的小伙伴可要好好看看到底是哪里疏忽了,小编这里先不说出问题点。
问题描述:
安装位置:
环境变量:
解决办法:
文件命名叫 scrapy.py,明显和scrapy自己的包名冲突了,这里
class StackOverFlowSpider(scrapy.Spider)
会直接找当前文件(scrapy.py)的Spider属性。
说了这么多,其实就是文件命名问题,所以总结一下经验教训哦
平时一定不要使用和包名或者build-in 函数相同的命名。
本文共计341个文字,预计阅读时间需要2分钟。
在先前文章分享后不久,就有位小伙伴跟小编写说在使用Scrapy搭建Python爬虫时遇到了错误。一开始,小伙伴也没看出问题所在,好在经过不断的讨论和测试,最终解决了出错的点。
在之前文章给大家分享后不久,就有位小伙伴跟小编说在用scrapy搭建python爬虫中出现错误了。一开始的时候小编也没有看出哪里有问题,好在经过不断地讨论与测试,最终解决了出错点的问题。有同样出错的小伙伴可要好好看看到底是哪里疏忽了,小编这里先不说出问题点。
问题描述:
安装位置:
环境变量:
解决办法:
文件命名叫 scrapy.py,明显和scrapy自己的包名冲突了,这里
class StackOverFlowSpider(scrapy.Spider)
会直接找当前文件(scrapy.py)的Spider属性。
说了这么多,其实就是文件命名问题,所以总结一下经验教训哦
平时一定不要使用和包名或者build-in 函数相同的命名。

