一 知识域/学习路径
1.1 初级阶段
java: net(网络编程)、IO、多线程(含:线程池)、正则表达式、集合、JDBC/数据库等
python: urllib.request
NodeJs/JavaScript: http
1.2 中级阶段
java: Jsoup(优势:HTML DOM解析)、HttpClient(优势:下载/IP代理等)、OKHttp、HTML Parser(优势:解析)、JavaScript/HTML(函数、JSON、Ajax、JacaScript DOM)等
NodeJs/JavaScript: express
1.3 进阶
java: web自动化测试框架selenium【WebDriver/ChromeDriver】(优势:下载/解析)
python: scrapy、web自动化测试框架selenium(WebDriver/ChromeDriver)
NodeJs/JavaScript: web自动化测试框架(PhantomJS/ selenium)
1.4 高级阶段
java: Heritrix网络爬虫框架
1.5 涉及经验
计算机网络(网络编程/ HTTP&TCP协议)
HTTP报文
报文头:
请求方法: GET/POST .etc
遵循协议: HTTP / HTTPS .etc
请求体
网络抓包与调试: Chrome开发者工具、Fiddle、Postman等
IP代理
文件操作
数据库 / JDBC
数据结构(栈/队列/List/Set/Map/深度优先/广度优先等)
Cookie/Session
反爬虫机制、模拟登陆
多线程编程
线程池/多线程爬行
分布式爬虫
可能涉及技巧:JS注入、模拟鼠标滑动、验证码识别(英文字母/数字/汉字/物品识别等)、延时请求(降低请求频率)等
可能涉及语言:Python、Java、JavaScript、HTML、CSS等
网页正文提取方法:Jsoup(基于 HTMLO DOM解析树)等、Html2Article(基于行块分布函数的通用正文抽取算法)
二 入门级演示
2.1 Python简易Demo
由于Python3合并URLib与URLlib2统一为URLlib,Python3将urlopen方法放在了urllib.request对象下。
官方文档:https://docs.python.org/3/library/urllib.request.html#module-urllib.request
在实现爬取网页过程中,屡次执行以下脚本:
#coding:UTF-8 import random; import urllib.request;# 不推荐使用 import urllib rawdata = urllib.request.urlopen('http://www.111cn.net/phper/python/68713.htm').read(); file = open("testfile","w+"); file.write(str(rawdata));
三 参考文档
[1] Python3中urllib详细使用方法(header,代理,超时,认证,异常处理)
[2] 基于行块分布函数的通用正文抽取算法.陈鑫.哈尔滨工业大学社会计算与信息检索研究中心
本文链接:http://task.lmcjl.com/news/6958.html