python爬虫入门一
概述
第一步,学会自己安装python、库和你的编辑器并设置好它
我们学习python的最终目的是要用它来达到我们的目的,它本身是作为工具的存在,我们一定要掌握自己的工具的各类设置,比如安装、环境配置、库的安装,编辑器的设置等等。
当然也可以用比如Anaconda来管理你的版本和各种库!

豆瓣Python大牛写的爬虫学习路线图,分享给大家!
第二步、学会一些基础的模块
我们有目标网址,怎么写爬虫呢?这个时候,建议大家可以找一些简单爬虫的视频或者文章,跟着老师一起写代码,先感受一下爬虫是怎么一步一步的在你的手里完成的!
当然这里不是说你照着老师的代码敲一遍就算学会了,个人认为,这里你最少要做三步:
l 所有你不知道的库、函数、语法都需要记录下来,自行学习掌握,并在以后的爬虫中继续这个步骤,很重要
l 要学会老师的思路。比如基本所有的教程并不是拿到url就开始写代码了,都有自己的分析过程,而思路在爬虫中占到很大一部分的比重,有了思路,写代码就不难了
l 先模仿在独立完成。先跟着老师做一些简单的爬虫,然后思路和代码都掌握以后,就可以尝试自行查找类似的项目去独立完成一个爬虫了!
l 推荐基础模块:re,requests,time等,自定义函数、类等语法以及报头、cookie的写入等等也需要了解
到这里,你应该已经掌握了python的基础模块并写出了你的简单爬虫,那么可以进行下一个步骤的学习了
豆瓣Python大牛写的爬虫学习路线图,分享给大家!
第三步、学习各种表达式,并精通1-2种!
学会了如何爬取网页内容之后,你还需要学会进行信息的提取。事实上,信息的提取你可以通过表达式进行实现,同样,有很多表达式可以供你选择使用,常见的有正则表达式、XPath表达式、BeautifulSoup(bs4)等,这些表达式你没有必要都精通,同样,精通1-2个,其他的掌握即可,在此建议精通掌握正则表达式以及XPath表达式,其他的了解掌握即可。正则表达式可以处理的数据的范围比较大,简言之,就是能力比较强,XPath只能处理XML格式的数据,有些形式的数据不能处理,但XPath处理数据会比较快,而且以后你学习爬虫框架也会用到xpath。
第四步、深入掌握抓包并分析提取需要的内容
在我们练习的过程中,会经常碰到有反爬措施的网站,而这些网站最常使用的措施就是隐藏数据,那么这时我们就要学会使用抓包分析,推荐大家一定要精通浏览器的开发者工具以及fiddler抓包工具,当然其他抓包工具或者抓包插件也可以,没有特别要求。
第五步、精通爬虫框架
当你学习到这一步的时候,你已经入门了。
这个时候,你可能需要深入掌握一款爬虫框架,因为采用框架开发爬虫项目,效率会更加高,并且项目也会更加完善。
同样,你可以有很多爬虫框架进行选择,比如Scrapy、pySpider等等,一样的,你没必要每一种框架都精通,只需要精通一种框架即可,其他框架都是大同小异的,在此推荐掌握Scrapy框架.
第六步、反爬的学习和精通
常见的反爬策略主要有:
IP限制
UA限制
Cookie限制
资源随机化存储
动态加载技术
……
对应的反爬处理手段主要有:
IP代理池技术
用户代理池技术
Cookie池保存与处理
自动触发技术
抓包分析技术+自动触发技术
反爬以及反爬处理都有一些基本的套路,万变不离其宗,这些需要我们根据实际情况去选择使用
第七步、seleium+phantomjs(firefox/chorm)等工具的使用
有一些站点,通过常规的爬虫很难去进行爬取,这个时候,你需要借助一些工具模块进行,比如PhantomJS、Selenium等,所以,你还需要掌握PhantomJS、Selenium等工具的常规使用方法。
第八步、分布式爬虫技术的掌握
如果你已经学习或者研究到到了这里,那么恭喜你,相信现在你爬任何网站都已经不是问题了,反爬对你来说也只是一道形同虚设的墙而已了。
但是,如果要爬取的资源非常非常多,靠一个单机爬虫去跑,仍然无法达到你的目的,因为太慢了。
所以,这个时候,你还应当掌握一种技术,就是分布式爬虫技术,分布式爬虫的架构手段有很多,你可以依据真实的服务器集群进行,也可以依据虚拟化的多台服务器进行,你可以采用Scrapy+redis架构手段,将爬虫任务部署到多台服务器中就OK。

豆瓣Python大牛写的爬虫学习路线图,分享给大家!
总结
有人问:使用windows系统还是linux系统学习?其实,没关系的,由于Python的可移植性非常好,所以你在不同的平台中运行一个爬虫,代码基本上不用进行什么修改,只需要学会部署到Linux中即可。一般建议学习的时候使用Windows系统进行就行,之后部署到Linux系统上就可以了。
基本库的使用
一般爬虫第一个学的库是urllib
urllib 是一个收集了多个用到 URL 的模块的包:
urllib.request打开和读取 URLurllib.error包含urllib.request抛出的异常urllib.parse用于解析 URLurllib.robotparser用于解析robots.txt文件
附录
常用模块及功能
选择模块时尽量选择还在更新的模块,一般情况下,这样能避免不少bug,而且能找到更多的学习资料来解决问题。
Python网络通用模块:
- urllib -网络库(stdlib)。
- requests -网络库。
- grab – 网络库(基于pycurl)。
- pycurl – 网络库(绑定libcurl)。
- urllib3 – Python HTTP库,安全连接池、支持文件post、可用性高。
- httplib2 – 网络库。
- RoboBrowser – 一个简单的、极具Python风格的Python库,无需独立的浏览器即可浏览网页。
- MechanicalSoup -一个与网站自动交互Python库。
- mechanize -有状态、可编程的Web浏览库。
- socket – 底层网络接口(stdlib)。
- Unirest for Python – Unirest是一套可用于多种语言的轻量级的HTTP库。
- hyper – Python的HTTP/2客户端。
- PySocks – SocksiPy更新并积极维护的版本,包括错误修复和一些其他的特征。作为socket模块的直接替换。
Python网络异步模块:
- treq – 类似于requests的API(基于twisted)。
- aiohttp – asyncio的HTTP客户端/服务器(PEP-3156)。
Python网络爬虫框架:
- grab – 网络爬虫框架(基于pycurl/multicur)。
- scrapy – 网络爬虫框架(基于twisted),不支持Python3。
- pyspider – 一个强大的爬虫系统。
- cola – 一个分布式爬虫框架。
- portia – 基于Scrapy的可视化爬虫。
- restkit – Python的HTTP资源工具包。它可以让你轻松地访问HTTP资源,并围绕它建立的对象。
- demiurge – 基于PyQuery的爬虫微框架。
Python HTML/XML解析器:
lxml – C语言编写高效HTML/ XML处理库。支持XPath。
cssselect – 解析DOM树和CSS选择器。
pyquery – 解析DOM树和jQuery选择器。
BeautifulSoup – 低效HTML/ XML处理库,纯Python实现。
html5lib – 根据WHATWG规范生成HTML/ XML文档的DOM。该规范被用在现在所有的浏览器上。
feedparser – 解析RSS/ATOM feeds。
MarkupSafe – 为XML/HTML/XHTML提供了安全转义的字符串。
xmltodict – 一个可以让你在处理XML时感觉像在处理JSON一样的Python模块。
xhtml2pdf – 将HTML/CSS转换为PDF。
untangle – 轻松实现将XML文件转换为Python对象。
Bleach – 清理HTML(需要html5lib)。
sanitize – 为混乱的数据世界带来清明。
Python 文本处理:
用于解析和操作简单文本的库。
1.通用
- difflib – (Python标准库)帮助进行差异化比较。
- Levenshtein – 快速计算Levenshtein距离和字符串相似度。
- fuzzywuzzy – 模糊字符串匹配。
- esmre – 正则表达式加速器。
- ftfy – 自动整理Unicode文本,减少碎片化。
2.转换
- unidecode – 将Unicode文本转为ASCII。
3.字符编码
- uniout – 打印可读字符,而不是被转义的字符串。
- chardet – 兼容 Python的2/3的字符编码器。
- xpinyin – 一个将中国汉字转为拼音的库。
- pangu.py – 格式化文本中CJK和字母数字的间距。
4.Slug化
- awesome-slugify – 一个可以保留unicode的Python slugify库。
- python-slugify – 一个可以将Unicode转为ASCII的Python slugify库。
- unicode-slugify – 一个可以将生成Unicode slugs的工具。
- pytils – 处理俄语字符串的简单工具(包括pytils.translit.slugify)。
5.通用解析器
- PLY – lex和yacc解析工具的Python实现。
- pyparsing – 一个通用框架的生成语法分析器。
6.人的名字
- python-nameparser -解析人的名字的组件。
7.电话号码
- phonenumbers -解析,格式化,存储和验证国际电话号码。
8.用户代理字符串
- python-user-agents – 浏览器用户代理的解析器。
- HTTP Agent Parser – Python的HTTP代理分析器。
Python 特定格式文件处理:
解析和处理特定文本格式的库。
1.通用
- tablib – 一个把数据导出为XLS、CSV、JSON、YAML等格式的模块。
- textract – 从各种文件中提取文本,比如 Word、PowerPoint、PDF等。
- messytables – 解析混乱的表格数据的工具。
- rows – 一个常用数据接口,支持的格式很多(目前支持CSV,HTML,XLS,TXT – 将来还会提供更多!)。
2.Office
- python-docx – 读取,查询和修改的Microsoft Word2007/2008的docx文件。
- xlwt / xlrd – 从Excel文件读取写入数据和格式信息。
- XlsxWriter – 一个创建Excel.xlsx文件的Python模块。
- xlwings – 一个BSD许可的库,可以很容易地在Excel中调用Python,反之亦然。
- openpyxl – 一个用于读取和写入的Excel2010 XLSX/ XLSM/ xltx/ XLTM文件的库。
- Marmir – 提取Python数据结构并将其转换为电子表格。
3.PDF
- PDFMiner – 一个从PDF文档中提取信息的工具。
- PyPDF2 – 一个能够分割、合并和转换PDF页面的库。
- ReportLab – 允许快速创建丰富的PDF文档。
- pdftables – 直接从PDF文件中提取表格。
4.Markdown
- Python-Markdown – 一个用Python实现的John Gruber的Markdown。
- Mistune – 速度最快,功能全面的Markdown纯Python解析器。
- markdown2 – 一个完全用Python实现的快速的Markdown。
5.YAML
- PyYAML – 一个Python的YAML解析器。
6.CSS
- cssutils – 一个Python的CSS库。
7.ATOM/RSS
- feedparser – 通用的feed解析器。
8.SQL
- sqlparse – 一个非验证的SQL语句分析器。
9.HTTP
- http-parser – C语言实现的HTTP请求/响应消息解析器。
10.微格式
- opengraph – 一个用来解析Open Graph协议标签的Python模块。
11.可移植的执行体
- pefile – 一个多平台的用于解析和处理可移植执行体(即PE)文件的模块。
12.PSD
- psd-tools – 将Adobe Photoshop PSD(即PE)文件读取到Python数据结构。
Python 自然语言处理:
处理人类语言问题的库。
- NLTK -编写Python程序来处理人类语言数据的最好平台。
- Pattern – Python的网络挖掘模块。他有自然语言处理工具,机器学习以及其它。
- TextBlob – 为深入自然语言处理任务提供了一致的API。是基于NLTK以及Pattern的巨人之肩上发展的。
- jieba – 中文分词工具。
- SnowNLP – 中文文本处理库。
- loso – 另一个中文分词库。
- genius – 基于条件随机域的中文分词。
- langid.py – 独立的语言识别系统。
- Korean – 一个韩文形态库。
- pymorphy2 – 俄语形态分析器(词性标注+词形变化引擎)。
- PyPLN – 用Python编写的分布式自然语言处理通道。这个项目的目标是创建一种简单的方法使用NLTK通过网络接口处理大语言库。
Python 浏览器自动化处理:
- selenium – 自动化真正的浏览器(Chrome浏览器,火狐浏览器,Opera浏览器,IE浏览器)。
- Ghost.py – 对PyQt的webkit的封装(需要PyQT)。
- Spynner – 对PyQt的webkit的封装(需要PyQT)。
- Splinter – 通用API浏览器模拟器(selenium web驱动,Django客户端,Zope)。
Python 多线程处理:
- threading – Python标准库的线程运行。对于I/O密集型任务很有效。对于CPU绑定的任务没用,因为python GIL。
- multiprocessing – 标准的Python库运行多进程。
- celery – 基于分布式消息传递的异步任务队列/作业队列。
- concurrent-futures – concurrent-futures 模块为调用异步执行提供了一个高层次的接口。
Python 异步处理:
异步网络编程库
- asyncio – (在Python 3.4 +版本以上的 Python标准库)异步I/O,时间循环,协同程序和任务。
- Twisted – 基于事件驱动的网络引擎框架。
- Tornado – 一个网络框架和异步网络库。
- pulsar – Python事件驱动的并发框架。
- diesel – Python的基于绿色事件的I/O框架。
- gevent – 一个使用greenlet 的基于协程的Python网络库。
- eventlet – 有WSGI支持的异步框架。
- Tomorrow – 异步代码的奇妙的修饰语法。
Python 队列相关:
- celery – 基于分布式消息传递的异步任务队列/作业队列。
- huey – 小型多线程任务队列。
- mrq – Mr. Queue – 使用redis & Gevent 的Python分布式工作任务队列。
- RQ – 基于Redis的轻量级任务队列管理器。
- simpleq – 一个简单的,可无限扩展,基于Amazon SQS的队列。
- python-gearman – Gearman的Python API。
Python 云计算相关:
- picloud – 云端执行Python代码。
- dominoup.com – 云端执行R,Python和matlab代码。
Python 电子邮件相关:
电子邮件解析库
- flanker – 电子邮件地址和Mime解析库。
- Talon – Mailgun库用于提取消息的报价和签名。
Python 网址和网络地址操作相关:
解析/修改网址和网络地址库。
1.URL
- furl – 一个小的Python库,使得操纵URL简单化。
- purl – 一个简单的不可改变的URL以及一个干净的用于调试和操作的API。
- urllib.parse – 用于打破统一资源定位器(URL)的字符串在组件(寻址方案,网络位置,路径等)之间的隔断,为了结合组件到一个URL字符串,并将“相对URL”转化为一个绝对URL,称之为“基本URL”。
- tldextract – 从URL的注册域和子域中准确分离TLD,使用公共后缀列表。
2.网络地址
- netaddr – 用于显示和操纵网络地址的Python库。
Python 网页内容提取相关:
提取网页内容的库。
HTML页面的文本和元数据
newspaper – 用Python进行新闻提取、文章提取和内容策展。
html2text – 将HTML转为Markdown格式文本。
python-goose – HTML内容/文章提取器。
lassie – 人性化的网页内容检索工具
micawber – 一个从网址中提取丰富内容的小库。
sumy -一个自动汇总文本文件和HTML网页的模块
Haul – 一个可扩展的图像爬虫。
python-readability – arc90 readability工具的快速Python接口。
scrapely – 从HTML网页中提取结构化数据的库。给出了一些Web页面和数据提取的示例,scrapely为所有类似的网页构建一个分析器。
Python 其它相关:
视频
- youtube-dl – 一个从YouTube下载视频的小命令行程序。
- you-get – Python3的YouTube、优酷/ Niconico视频下载器。
维基
- WikiTeam – 下载和保存wikis的工具。
WebSocket
- Crossbar – 开源的应用消息传递路由器(Python实现的用于Autobahn的WebSocket和WAMP)。
- AutobahnPython – 提供了WebSocket协议和WAMP协议的Python实现并且开源。
- WebSocket-for-Python – Python 2和3以及PyPy的WebSocket客户端和服务器库。
DNS解析
- dnsyo – 在全球超过1500个的DNS服务器上检查你的DNS。
- pycares – c-ares的接口。c-ares是进行DNS请求和异步名称决议的C语言库。
计算机视觉
- OpenCV – 开源计算机视觉库。
- SimpleCV – 用于照相机、图像处理、特征提取、格式转换的简介,可读性强的接口(基于OpenCV)。
- mahotas – 快速计算机图像处理算法(完全使用 C++ 实现),完全基于 numpy 的数组作为它的数据类型。
代理服务器
- shadowsocks – 一个快速隧道代理,可帮你穿透防火墙(支持TCP和UDP,TFO,多用户和平滑重启,目的IP黑名单)。
- tproxy – tproxy是一个简单的TCP路由代理(第7层),基于Gevent,用Python进行配置。
其他Python工具列表
- awesome-python
- pycrumbs
- python-github-projects
- python_reference
- pythonidae