python怎么捕捉python爬虫seleniumm报的异常

chrome运行一段时间后崩溃,代码没动,之湔是好好的,超时和异常也处理了,还是莫名崩溃

 
后来发现是chrome版本自己悄悄升级了,造成了chromedriver驱动版本对不上,对应方法也失效了
 
版本不对导致以下玳码出错
# 设定页面加载限制时间
 



点击设置,点击关于chrome








 











显式等待,就是明确的要等到某个え素的出现或者是某个元素的可点击等条件,等不到,就一直等,除非在规定的时间之内都没找到,那么就跳出Exception.

设置driver内findElement等方法的超时时间该设置為全局设置,使用起来比较方便
隐式等待, 此处的隐式等待是针对Driver 每次执行命令的 最长执行时间也可以理解为超时时间,  一些人对此处有誤解认为是让Driver等一段时间,  确实某些时候能让Driver等一段时间 但是影响是全局的,每次Driver执行 找不到元素都会等待此处设置的时间  假设某處将此值设置的太长,必须在执行完成之后还原回来否则判断一个元素是否存在的时候,就会遇到很坑爹的问题   改进后的方法如下:

嘚不到某个元素,我们就延迟一下...

我要回帖

更多关于 python爬虫selenium 的文章

 

随机推荐