国产片侵犯亲女视频播放_亚洲精品二区_在线免费国产视频_欧美精品一区二区三区在线_少妇久久久_在线观看av不卡

腳本之家,腳本語言編程技術(shù)及教程分享平臺!
分類導(dǎo)航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務(wù)器之家 - 腳本之家 - Python - Scrapy啟動報錯invalid syntax的解決

Scrapy啟動報錯invalid syntax的解決

2022-01-08 00:04紫陌幽茗 Python

這篇文章主要介紹了Scrapy啟動報錯invalid syntax的解決方案,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教

 

Scrapy啟動報錯invalid syntax

 

報錯信息

Traceback (most recent call last): File “d:pythonlib unpy.py”,
line 193, in _run_module_as_main
“main”, mod_spec) File “d:pythonlib unpy.py”, line 85, in run_code
exec(code, run_globals) File "D:pythonScriptsscrapy.exe_main.py", line 9, in File
“d:pythonlibsite-packagesscrapycmdline.py”, line 150, in execute
_run_print_help(parser, _run_command, cmd, args, opts) File “d:pythonlibsite-packagesscrapycmdline.py”, line 90, in
_run_print_help
func(*a, **kw) File “d:pythonlibsite-packagesscrapycmdline.py”, line 157, in
_run_command
cmd.run(args, opts) File “d:pythonlibsite-packagesscrapycommandscrawl.py”, line 57, in
run
self.crawler_process.crawl(spname, **opts.spargs) File “d:pythonlibsite-packagesscrapycrawler.py”, line 170, in crawl
crawler = self.create_crawler(crawler_or_spidercls) File “d:pythonlibsite-packagesscrapycrawler.py”, line 198, in
create_crawler
return self._create_crawler(crawler_or_spidercls) File “d:pythonlibsite-packagesscrapycrawler.py”, line 203, in
create_crawler
return Crawler(spidercls, self.settings) File “d:pythonlibsite-packagesscrapycrawler.py”, line 55, in init
self.extensions = ExtensionManager.from_crawler(self) File “d:pythonlibsite-packagesscrapymiddleware.py”, line 58, in
from_crawler
return cls.from_settings(crawler.settings, crawler) File “d:pythonlibsite-packagesscrapymiddleware.py”, line 34, in
from_settings
mwcls = load_object(clspath) File “d:pythonlibsite-packagesscrapyutilsmisc.py”, line 44, in
load_object
mod = import_module(module) File "d:pythonlibimportlib_init.py", line 127, in import_module
return _bootstrap._gcd_import(name[level:], package, level) File “

啟動命令如下:

scrapy crawl first_spider -o first_spider.csv

 

解決方法

經(jīng)過查詢發(fā)現(xiàn)async在python3.7中是保留字,因此將twistedconchmanhole.py中的async修改為isasync即可解決問題

 

使用scrapy做爬蟲遇到的一些坑

使用xpath和CSS遇到的一些 invalid syntax

 

1.引號的歧義:最外面應(yīng)該使用單引號

錯誤:

Scrapy啟動報錯invalid syntax的解決

正確:把定位的xpath外加單引號

Scrapy啟動報錯invalid syntax的解決

 

2.使用了關(guān)鍵字做變量

錯誤:

Scrapy啟動報錯invalid syntax的解決

正確:注意關(guān)鍵字不能做變量

Scrapy啟動報錯invalid syntax的解決

 

3.進(jìn)入shell窗口時,url添加了“”

錯誤:

Scrapy啟動報錯invalid syntax的解決

正確:去掉url的引號

Scrapy啟動報錯invalid syntax的解決

 

4.使用xpath匹配相關(guān)信息,返回為空列表

錯誤:因為一開始網(wǎng)址就是錯誤的,所以不管匹配的xpath是不是對的,都會返回【】

Scrapy啟動報錯invalid syntax的解決

Scrapy啟動報錯invalid syntax的解決

正確:

Scrapy啟動報錯invalid syntax的解決

Scrapy啟動報錯invalid syntax的解決

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持服務(wù)器之家。

原文鏈接:https://blog.csdn.net/weixin_43165512/article/details/105978883

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 久久久性 | 亚洲一级在线 | av在线干 | 日韩中文字幕一区二区三区 | av电影免费在线观看 | 懂色av中文一区二区三区天美 | 99热这里有精品 | 色视频网 | 日韩亚洲 | 日本久久综合 | 成人黄网视频在线观看 | 在线日韩| 欧美在线综合 | 亚洲国产精品一区二区久久 | 亚洲午夜视频在线观看 | 中文字幕一区二区三 | 国产精品久久久久久久9999 | 国产精品久久久久久模特 | 欧美一区二区三区男人的天堂 | 久久久久久亚洲精品中文字幕 | 国产xxxx成人精品免费视频频 | 亚洲激情视频在线播放 | 国产综合久久久 | 99国产精品99久久久久久 | 不卡黄色| 一级a毛片| 羞羞影院| 国产精品自产拍在线观看桃花 | 欧美黄色网 | 精品一区二区久久久久久久网站 | 美女网站全黄 | 欧美高清性xxxxhdvideosex | 午夜国产| 国产毛片视频 | 亚洲精品久久久久国产 | 日日爱视频 | 人人干天天干 | 日韩在线观看视频一区二区三区 | 91精品国产综合久久久久久丝袜 | 国产伊人一区 | 岛国一区 |