python编写爬虫小程序的方法

来源:网络时间:2018-02-26 10:10:41

  我们可以通过python 来实现这样一个简单的爬虫功能,把我们想要的代码爬取到本地。下面就看

python编写爬虫小程序的方法

  看如何使用python来实现这样一个功能。

  起因  深夜忽然想下载一点电子书来扩充一下kindle,就想起来python学得太浅,什么“装饰器”啊、“多线程”啊都没有学到。  想到廖雪峰大神的python教程很经典、很著名。就想找找有木有pdf版的下载,结果居然没找到!!CSDN有个不完整的还骗走了我一个积分!!尼玛!!  怒了,准备写个程序直接去爬廖雪峰的教程,然后再html转成电子书。  过程  过程很有趣呢,用浅薄的python知识,写python程序,去爬python教程,来学习python。想想有点小激动……  果然python很是方便,50行左右就OK了。直接贴代码:  ?

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

# coding:utf-8

import urllib

domain = '' #廖雪峰的域名

path = r'C:Userscyhhao2013Desktoptemp' #html要保存的路径

# 一个html的头文件

input = open(r'C:Userscyhhao2013Desktop.html', 'r')

head = input.read()

# 打开python教程主界面

f = urllib.urlopen("/wiki/001374738125095c955c1e6d8bb493182103fac9270762a000")

home = f.read()

f.close()


# 替换所有空格回车(这样容易好获取url)

geturl = home.replace("n", "")

geturl = geturl.replace(" ", "")

# 得到包含url的字符串

list = geturl.split(r'em;"><ahref="')[1:]

# 强迫症犯了,一定要把第一个页面也加进去才完美

list.insert(0, '/wiki/001374738125095c955c1e6d8bb493182103fac9270762a000">')

# 开始遍历url List

for li in list:

url = li.split(r'">')[0]

url = domain + url #拼凑url

print url

f = urllib.urlopen(url)

html = f.read()

# 获得title为了写文件名

title = html.split("<title>")[1]

title = title.split(" - 廖雪峰的官方网站</title>")[0]

# 要转一下码,不然加到路径里就悲剧了

title = title.decode('utf-8').replace("/", " ")

# 截取正文

html = html.split(r'<!-- block main -->')[1]

html = html.split(r'<h4>您的支持是作者写作最大的动力!</h4>')[0]

html = html.replace(r'src="', 'src="' + domain)

# 加上头和尾组成完整的html

html = head + html+"</body></html>"

# 输出文件

output = open(path + "%d" % list.index(li) + title + '.html', 'w')

output.write(html)

output.close()

  简直,人生苦短我用python啊!  以上所述就是本文的全部内容了,希望大家能够喜欢。  

文章内容来源于网络,不代表本站立场,若侵犯到您的权益,可联系我们删除。(本站为非盈利性质网站) 联系邮箱:rjfawu@163.com