博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
黄聪:使用Python中的HTMLParser、cookielib抓取和解析网页、从HTML文档中提取链接、图像、文本、Cookies(二)...
阅读量:6181 次
发布时间:2019-06-21

本文共 10465 字,大约阅读时间需要 34 分钟。

  对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过 Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文上篇中,我们介绍了一个可以帮助简化打开 位于本地和Web上的HTML文档的Python模块。在本文中,我们将论述如何使用Python模块来迅速解析在HTML文件中的数据,从而处理特定的 内容,如链接、图像和Cookie等。同时还会介绍如何规范HTML文件的格式标签。

  一、从HTML文档中提取链接

  Python语言还有一个非常有用的模块HTMLParser,该模块使我们能够根据HTML文档中的标签来简洁、高效地解析HTML文档。所以,在处理HTML文档的时候,HTMLParser是最常用的模块之一。

  
import
HTMLParser
  
import
urllib
  
class
parseLinks(HTMLParser.HTMLParser):
  
def
handle_starttag(self, tag, attrs):
  
if
tag
==
'
a
'
:
  
for
name,value
in
attrs:
  
if
name
==
'
href
'
:
  
print
value
  
print
self.get_starttag_text()
  lParser
=
parseLinks()
  lParser.feed(urllib.urlopen(
"
http://www.python.org/index.html
"
).read())

  处理HTML文档的时候,我们常常需要从其中提取出所有的链接。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义 一个新的HTMLParser类,以覆盖handle_starttag()方法,我们将使用这个方法来显示所有标签的HRef属性值。

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的链接,可以使用read()函数将数据传递给HTMLParser对象。HTMLParser对象 的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。需要注意,如果传给HTMLParser的feed()函数的数 据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很大,需要分段发送给解析器的时候,这个功能就会 有用武之地了。下面是一个具体的例子

  
import
HTMLParser
  
import
urllib
  
import
sys
  
#
定义HTML解析器
  
class
parseLinks(HTMLParser.HTMLParser):
  
def
handle_starttag(self, tag, attrs):
  
if
tag
==
'
a
'
:
  
for
name,value
in
attrs:
  
if
name
==
'
href
'
:
  
print
value
  
print
self.get_starttag_text()
  
#
创建HTML解析器的实例
  lParser
=
parseLinks()
  
#
打开HTML文件
  lParser.feed(urllib.urlopen( /
  
"
http://www.python.org/index.html
"
).read())
  lParser.close()

  上述代码的运行结果太长,在此省略,您可以自己运行代码试试。

二、从HTML文档中提取图像

  处理HTML文档的时候,我们常常需要从其中提取出所有的图像。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义 一个新的HTMLParser类,以覆盖handle_starttag()方法,该方法的作用是查找img标签,并保存src属性值所指的文件。

  
import
HTMLParser
  
import
urllib
  
def
getImage(addr):
  u
=
urllib.urlopen(addr)
  data
=
u.read()
  
class
parseImages(HTMLParser.HTMLParser):
  
def
handle_starttag(self, tag, attrs):
  
if
tag
==
'
img
'
:
  
for
name,value
in
attrs:
  
if
name
==
'
src
'
:
  getImage(urlString
+
"
/
"
+
value)
  u
=
urllib.urlopen(urlString)
  lParser.feed(u.read())

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的图像,可以使用feed(data)函数将数据发送至HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例:

  
import
HTMLParser
  
import
urllib
  
import
sys
  urlString
=
"
http://www.python.org
"
  
#
把图像文件保存至硬盘
  
def
getImage(addr):
  u
=
urllib.urlopen(addr)
  data
=
u.read()
  splitPath
=
addr.split(
'
/
'
)
  fName
=
splitPath.pop()
  
print
"
Saving %s
"
%
fName
  f
=
open(fName,
'
wb
'
)
  f.write(data)
  f.close()
  
#
定义HTML解析器
  
class
parseImages(HTMLParser.HTMLParser):
  
def
handle_starttag(self, tag, attrs):
  
if
tag
==
'
img
'
:
  
for
name,value
in
attrs:
  
if
name
==
'
src
'
:
  getImage(urlString
+
"
/
"
+
value)
  
#
创建HTML解析器的实例
  lParser
=
parseImages()
  
#
打开HTML文件
  u
=
urllib.urlopen(urlString)
  
print
"
Opening URL/n====================
"
  
print
u.info()
  
#
把HTML文件传给解析器
  lParser.feed(u.read())
  lParser.close()

  上述代码的运行结果如下所示:

  Opening URL
  
====================
  Date: Fri,
26
Jun
2009
10
:
54
:
49
GMT
  Server: Apache
/
2.2
.
9
(Debian) DAV
/
2
SVN
/
1.5
.
1
mod_ssl
/
2.2
.
9
OpenSSL
/
0.9
.8g mod_wsgi
/
2.3
Python
/
2.5
.
2
  Last
-
Modified: Thu,
25
Jun
2009
0
9
:
44
:
54
GMT
  ETag:
"
105800d-46e7-46d29136f7180
"
  Accept
-
Ranges: bytes
  Content
-
Length:
18151
  Connection: close
  Content
-
Type: text
/
html
  Saving python
-
logo.gif
  Saving trans.gif
  Saving trans.gif
  Saving afnic.fr.png

 三、从HTML文档中提取文本

  处理HTML文档的时候,我们常常需要从其中提取出所有的文本。使用HTMLParser模块后,这项任务将变得非常简单了。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_data()方法,该方法是用来解析并文本数据的。

  
import
HTMLParser
  
import
urllib
  
class
parseText(HTMLParser.HTMLParser):
  
def
handle_data(self, data):
  
if
data
!=
'
/n
'
:
  urlText.append(data)
  lParser
=
parseText()
  lParser.feed(urllib.urlopen( /
  http:
//
docs.python.org
/
lib
/
module
-
HTMLParser.html).read())

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并显示包含其中的文本,我们可以使用feed(data)函数将数据传递给HTMLParser对象。 HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。要注意的是,如果传给 HTMLParser的feed()函数的数据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很 大,需要分段发送给解析器的时候,这个功能就会有用武之地了。下面是一个具体的代码示例:

  
import
HTMLParser
  
import
urllib
  urlText
=
[]
  
#
定义HTML解析器
  
class
parseText(HTMLParser.HTMLParser):
  
def
handle_data(self, data):
  
if
data
!=
'
/n
'
:
  urlText.append(data)
  
#
创建HTML解析器的实例
  lParser
=
parseText()
  
#
把HTML文件传给解析器
  lParser.feed(urllib.urlopen( /
  “http:
//
docs.python.org
/
lib
/
module
-
HTMLParser.html” /
  ).read())
  lParser.close()
  
for
item
in
urlText:
  
print
item

  上面代码的运行输出过长,在此略过

 

四、从HTML文档中提取Cookies

  很多时候,我们都需要处理Cookie,幸运的是Python语言的cookielib模块为我们提供了许多自动处理在HTML中的HTTP Cookie的类。当处理要求为客户端设置Cookie的HTML文档的时候,这些类对我们非常有用。

  
import
urllib2
  
import
cookielib
  
from
urllib2
import
urlopen, Request
  cJar
=
cookielib.LWPCookieJar()
  opener
=
urllib2.build_opener( /
  urllib2.HTTPCookieProcessor(cJar))
  urllib2.install_opener(opener)
  r
=
Request(testURL)
  h
=
urlopen(r)
  
for
ind, cookie
in
enumerate(cJar):
  
print
"
%d - %s
"
%
(ind, cookie)
  cJar.save(cookieFile)

  为了从HTML文档提取cookies,首先得使用cookielib模块的LWPCookieJar()函数创建一个cookie jar的实例。LWPCookieJar()函数将返回一个对象,该对象可以从硬盘加载Cookie,同时还能向硬盘存放Cookie。

  接下来,使用urllib2模块的build_opener([handler, . . .])函数创建一个opener对象,当HTML文件打开时该对象将处理cookies。函数build_opener可以接收零个或多个处理程序(这些 程序将按照它们被指定的顺序连接在一起)作为参数并返回一个。

  注意,如果想让urlopen()使用opener对象来打开HTML文件的话,可以调用install_opener(opener)函数,并将opener对象传给它。否则,请使用opener对象的open(url)函数来打开HTML文件。

  一旦已经创建并安装了opener对象,就可以使用urllib2模块中的Request(url)函数来创建一个Request对象,然后就能使用urlopen(Request)函数来打开HTML文件了。

  打开HTML页面后,该页面的所有Cookie将被存放到LWPCookieJar对象中,之后,您可以使用LWPCookieJar对象的save(filename)函数了。

  
import
os
  
import
urllib2
  
import
cookielib
  
from
urllib2
import
urlopen, Request
  cookieFile
=
"
cookies.dat
"
  testURL
=
'
http://maps.google.com/
'
  
#
为cookie jar 创建实例
  cJar
=
cookielib.LWPCookieJar()
  
#
创建HTTPCookieProcessor的opener对象
  opener
=
urllib2.build_opener( /
  urllib2.HTTPCookieProcessor(cJar))
  
#
安装HTTPCookieProcessor的opener
  urllib2.install_opener(opener)
  
#
创建一个Request对象
  r
=
Request(testURL)
  
#
打开HTML文件
  h
=
urlopen(r)
  
print
"
页面的头部/n======================
"
  
print
h.info()
  
print
"
页面的Cookies/n======================
"
  
for
ind, cookie
in
enumerate(cJar):
  
print
"
%d - %s
"
%
(ind, cookie)
  
#
保存cookies
  cJar.save(cookieFile)

  上述代码的运行结果如下所示:

  页面的头部
  
======================
  Cache
-
Control: private
  Content
-
Type: text
/
html; charset
=
ISO
-
8859
-
1
  Set
-
Cookie: PREF
=
ID
=
5d9692b55f029733:NW
=
1
:TM
=
1246015608
:LM
=
1246015608
:S
=
frfx
--
b3xt73TaEA; expires
=
Sun,
26
-
Jun
-
2011
11
:
26
:
48
GMT; path
=/
; domain
=
.google.com
  Date: Fri,
26
Jun
2009
11
:
26
:
48
GMT
  Server: mfe
  Expires: Fri,
26
Jun
2009
11
:
26
:
48
GMT
  Transfer
-
Encoding: chunked
  Connection: close
  页面的Cookies
  
======================
  0
-

 五、为HTML文档中的属性值添加引号

  前面我们讨论了如果根据HTML解析器中的某种处理程序来解析HTML文件,可是有时候我们却需要使用所有的处理程序来处理HTML文档。值得庆幸的是,使用HTMLParser模块解析HTML文件的所有要素并不比处理链接或者图像难多少。

  
import
HTMLParser
  
import
urllib
  
class
parseAttrs(HTMLParser.HTMLParser):
  
def
handle_starttag(self, tag, attrs):
  . . .
  attrParser
=
parseAttrs()
  attrParser.init_parser()
  attrParser.feed(urllib.urlopen(
"
test2.html
"
).read())

  这里,我们将讨论如何使用HTMLParser模块来解析HTML文件,从而为“裸奔”的属性值加上引号。首先,我们要定义一个新的HTMLParser类,以覆盖下面所有的处理程序来为属性值添加引号。

  handle_starttag(tag, attrs)
  handle_charref(name)
  handle_endtag(tag)
  handle_entityref(ref)
  handle_data(text)
  handle_comment(text)
  handle_pi(text)
  handle_decl(text)
  handle_startendtag(tag, attrs)

  我们还需要在parser类中定义一个函数来初始化用于存储解析好的数据的变量,同时还要定义另外一个函数来返回解析好的数据。

  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。使用我们创建的init函数初始化该解析器,这样,我们就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。

  为了解析HTML文件的内容并给属性值添加引号,可以使用feed(data)函数将数据传递给HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例代码:

  
import
HTMLParser
  
import
urllib
  
import
sys
  
#
定义HTML解析器
  
class
parseAttrs(HTMLParser.HTMLParser):
  
def
init_parser (self):
  self.pieces
=
[]
  
def
handle_starttag(self, tag, attrs):
  fixedAttrs
=
""
  
#
for name,value in attrs:
  
for
name, value
in
attrs:
  fixedAttrs
+=
"
%s=/"%s/"
"
%
(name, value)
  self.pieces.append(
"
<%s %s>
"
%
(tag, fixedAttrs))
  
def
handle_charref(self, name):
  self.pieces.append(
"
&#%s;
"
%
(name))
  
def
handle_endtag(self, tag):
  self.pieces.append(
""
%
(tag))
  
def
handle_entityref(self, ref):
  self.pieces.append(
"
&%s
"
%
(ref))
  
def
handle_data(self, text):
  self.pieces.append(text)
  
def
handle_comment(self, text):
  self.pieces.append(
""
%
(text))
  
def
handle_pi(self, text):
  self.pieces.append(
""
%
(text))
  
def
handle_decl(self, text):
  self.pieces.append(
""
%
(text))
  
def
parsed (self):
  
return
""
.join(self.pieces)
  
#
创建HTML解析器的实例
  attrParser
=
parseAttrs()
  
#
初始化解析器数据
  attrParser.init_parser()
  
#
把HTML文件传给解析器
  attrParser.feed(urllib.urlopen(
"
test2.html
"
).read())
  
#
显示原来的文件内容
  
print
"
原来的文件/n========================
"
  
print
open(
"
test2.html
"
).read()
  
#
显示解析后的文件
  
print
"
解析后的文件/n========================
"
  
print
attrParser.parsed()
  attrParser.close()

  我们还需要建立一个测试文件,名为test2.html,该文件内容可以从上述代码的运行结果看到,具体如下所示:

原来的文件
========================
<
html
>
<
head
>
<
meta content
=
"
text/html; charset=utf-8
"
http
-
equiv
=
"
content-type
"
/>
<
title
>
Web页面
</
title
>
</
head
>
<
body
>
<
H1
>
Web页面清单
</
H1
>
<
a href
=
http:
//
www.python.org
>
Python网站
</
a
>
<
a href
=
test.html
>
本地页面
</
a
>
<
img SRC
=
test.jpg
>
</
body
>
</
html
>
解析后的文件
========================
<
html
>
<
head
>
<
meta content
=
"
text/html; charset=utf-8
"
http
-
equiv
=
"
content-type
"
></
meta
>
<
title
>
Web页面
</
title
>
</
head
>
<
body
>
<
h1
>
Web页面清单
</
h1
>
<
a href
=
"
http://www.python.org
"
>
Python网站
</
a
>
<
a href
=
"
test.html
"
>
本地页面
</
a
>
<
img src
=
"
test.jpg
"
>
</
body
>
</
html
>

  六、小结

  对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过 Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文将详细介绍了如何使用Python模块来 迅速解析在HTML文件中的数据,从而处理特定的内容,如链接、图像和Cookie等。同时,我们还给出了一个规范HTML文件的格式标签的例子,希望本 文对您会有所帮助。

转载于:https://www.cnblogs.com/huangcong/archive/2011/08/31/2160747.html

你可能感兴趣的文章
使用vc+如何添加特殊字符的控件(创世纪篇)
查看>>
Linux下的常用信号
查看>>
3.UIImageView+category
查看>>
2.UIView+category
查看>>
Android ImageLoader使用
查看>>
LDTP
查看>>
StringUtils工具类的常用方法
查看>>
linux下VNC安装与配置
查看>>
URL编码
查看>>
光模块及光纤知识(含分类,常用类型介绍)
查看>>
Apache 单IP多端口设置
查看>>
安装系统前的准备---vmware
查看>>
Tiny并行计算框架之使用介绍
查看>>
Linux od命令
查看>>
一个不错的MySQL集群管理工具
查看>>
mysql-proxy 按表分发查询的lua脚本
查看>>
在wordpress主题下面添加二级菜单
查看>>
CentOS 下JDK安装
查看>>
Nginx + Django
查看>>
我的友情链接
查看>>