网页爬虫JavaScript页面渲染技术与应用
廖雨寒 杨彦松 张斌
睿哲科技股份有限公司
一、背景
随着网络的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战,网络爬虫(web crawler)随之而生。但是现在的网站很少有纯静态网页,大部分网站都通过JavaScript渲染、ajax异步等实现网页数据加载。对于目前的爬虫框架来说,基本都是爬取到的未渲染过的HTML源码,所以对于爬虫来说没真正做到浏览器的所见即所爬。对于scrapy来说,官方有一个scrapy-splash项目支持页面渲染解析,然而scrapy-splash在高并发状态下极其不稳定。一种方案是通过webkit浏览器引擎直接渲染,另一种方案是通过调用浏览器渲染。通过几种方案比较,最终选择了Google Chrome Devtools Protocol开发渲染功能。
二、渲染方案可行性分析
1.Scrapy-Splash
Scrapy-splash是scrapy官方团队提供的一个解决js渲染问题的方案。Splash是处理网页渲染的模块,它内部使用的开源的webkit浏览器引擎,通过HTTP API来使用渲染服务。在scrapy中通过DownloaderMiddleware处理网页请求,实际是去请求splash接口并得到渲染后的数据。
Splash优点:
可以并行处理多个网页
获取HTML结果和/或截取屏幕截图
关掉加载图片或使用 Adblock Plus规则使得渲染速度更快
使用JavaScript处理网页内容
使用Lua脚本
能够获得具体的HAR格式的渲染信息
然而在实际使用scrapy-splash的过程中,也遇到过一些splash的问题:
对于一些特殊网站,并不能很好的处理重定向,比如一些需要通过js渲染Cookie的页面,需要通过location对象重定向好几次才能到真正的页面,但是splash只是处理了第一次的渲染Cookie后并没有实现跳转
在并发的情况下,获取到的数据有时候是没有内容的
2.Scrapy-QtWebkit
Splash是采用Webkit引擎实现的网页渲染,可直接采用Webkit对接Scrapy实现渲染网页。在Qt库中有相应的QtWebkit模块,但是在Qt5.6版本以上QtWebkit就被淘汰了,代替它的是QtWebEngine,因此,选择QtWebKit时,建议使用Qt4或者Qt5.6之前的版本。
Webkit大致通过View-->Page-->Frame的流程来加载网页。通过这些模块,对于上面splash遇到重定向问题和空页面问题都能得到解决。
Webkit优点:
细粒度处理网页渲染
资源加载可控
直接交与webkit处理更效率
Webkit缺点:
内存资源占用较大
高并发处理网页过多容易引起C底层错误
三、Google Chrome Devtools Protocol
以上两种方案,都存在各自的缺点, 那有没有可能直接通过调用浏览器加载网页呢?事实上selenium可以操作浏览器。selenium操作chrome是使用chromedriver,chromedriver底层应用的是Chrome Devtools Protocol,因此,何不直接使用Chrome Devtools Protocol。
Chrome Devtools Protocol介绍
在Chrome/Chromium浏览器中,按F12会弹出调试工具,它是通过Chrome Devtools Protocol的协议来进行数据通讯。Chrome Devtools Protocol用来与浏览器页面(pages)交互和调试的协议通道。它采用websocket来与页面建立通信通道,由发送给页面的Commands和它所产生的Events组成。
在Chrome Devtools Protocol中,有很多不同的功能模块域(domains),类似于Chrome开发这工具的个功能模块。
然而对于此例的爬虫来说,只需要用到Network,Page,Runtime等几个功能模块域:
Network允许跟踪页面的网络活动,它公开http, file, data,网络请求和响应等数据信息
Page会检查与页面相关的动作和事件
Runtime主要用作运行JavaScript操作代码
启动调试实例
要使用Chrome Devtools Protocol,需要开启调试。我们的项目运行在服务器中,所以需要开启无头模式 --headless --disable-gpu --no-sandbox。
chrome.exe --remote-debugging-port=9222 --headless --disable-gpu --no-sandbox
如果需要远程调试,可以加上参数--remote-debugging-address='0.0.0.0'。
操作Chrome Devtools Protocol
通过以上命令可以启动一个Chrome调试实例,通过HTTP调用接口:
http://loacalhost:9222/json
会得到接口返回的JSON数据:
[
{
"description": "",
"devtoolsFrontendUrl": "/devtools/inspector.html?ws=localhost:9222/devtools/page/A6C1F7B23DFF222A87143ACB37CBF7C4",
"id": "A6C1F7B23DFF222A87143ACB37CBF7C4",
"title": "about:blank",
"type": "page",
"url": "about:blank",
"webSocketDebuggerUrl": "ws://localhost:9222/devtools/page/A6C1F7B23DFF222A87143ACB37CBF7C4"
}
]
默认开启实例后会有一个空的标签页(Tab),要创建新的Tab,只需要通过调用接口
http://loacalhost:9222/json/new
或者在后面直接添加网址,Tab将会创建并加载网页
http://loacalhost:9222/json/new?http://www.example.com/
在每个Tab中有一个webSocketDebuggerUrl字段,它提供了一个WebSocket接口与Chrome交互。比如要启用Page模块域,通过WebSocket发送以下命令开启:
{"id":1, "method":"Page.enable", "params":{}}
关闭Tab
http://loacalhost:9222/json/close/A6C1F7B23DFF222A87143ACB37CBF7C4
四、Scrapy实现Chrome Protocol下载渲染页面
Scrapy是一个爬虫框架,它使用了Twisted异步网络库来处理网络通讯,他的大致架构流程如图
图 1 Scrapy框架
在图1中我们看到scrapy处理网络请求的是Downloader模块,他通过DownloaderHandler下载处理器完成下载网络请求,下载处理器使用的是Twisted网络库实现的,对于Chrome Protocol来说我们通过接口操作命令实现网页加载本质上是Chrome加载网页,也就是说下载处理是通过Chrome Protocol接口操作Chrome浏览器请求加载并渲染网页,因此我们需要拿到渲染后的网页HTML源码,需要改写DownloaderHandler。
然而原生操作Chrome Protocol太繁琐,我们需要封装它。在Github上有多种语言实现了Chrome Devtools Protocol的封装。对于Python来说,我们使用Pychrome库来操作Chrome Protocol,可以直接用pip安装模块:
pip install pychrome
当然要使用该模块得要启动Chrome调试实例,通过实例的地址和端口号连接:
browser = pychrome.Browser(url="http://<your_ip>:9222")
通过new_tab()方法创建tab标签页,通过tab.start()启动当前tab的websocket链接,例如需要启动Network功能域,通过调用tab.Network.enable()来启动,通过tab.Page.navigate(url="http://www.example.com")加载网页,该页面加载时的一切网络活动都可以通过接收websocket响应得到json数据。
这时会有一个问题,何时才算是真正渲染完成页面?
图 2 JS渲染流程
在图2中是浏览器从输入网址到页面加载完成的处理流程,loadEventEnd是真正加载完成,但是在一些使用ajax异步请求的网页使用loadEventEnd并不能很好的判断为渲染结束,所以这里我们使用JavaScript命令获取readyState状态判断页面是否加载完成:
document.readyState
readyState一共有五种状态:
uninitialized - XML 对象被产生,但没有任何文件被加载
loading - 加载程序进行中,但文件尚未开始解析
loaded - 部分的文件已经加载且进行解析,但对象模型尚未生效
interactive - 仅对已加载的部分文件有效,在此情况下,对象模型是有效但只读的
complete - 文件已完全加载,代表加载成功
通过document.readyState == complate来判断数据的加载进度。当加载完成时通过javascript命令获取渲染后的HTML源码:
document.documentElement.outerHTML
在这里我们就可以使用Pychrome替代scrapy的twisted下载处理。
五、结语
使用chrome devtools protocol来操作chrome浏览器来渲染页面,能基本完成渲染页面的需求,一些需要与浏览器交互的页面也大致能使用JavaScript操作命令,重点是使用chrome操作页面渲染会很占用资源,因此不宜过多的开启渲染进程,多线程下载尽量重用Tab标签页,因为每多创建一个Tab相当于开了一个进程,最后,爬虫结束时,应该调用相关接口关闭所有Tab,释放资源。
图片新闻
最新活动更多
-
1月8日火热报名中>> Allegro助力汽车电气化和底盘解决方案优化在线研讨会
-
精彩回顾立即查看>> 【线下会议】OFweek 2024(第九届)物联网产业大会
-
精彩回顾立即查看>> STM32全球线上峰会
-
精彩回顾立即查看>> 松下新能源中国布局:锂一次电池新品介绍
-
精彩回顾立即查看>> 2024工程师系列—工业电子技术在线会议
-
精彩回顾立即查看>> 【线下论坛】华邦电子与莱迪思联合技术论坛
推荐专题
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论