admin 管理员组文章数量: 1087817
Python爬虫学习笔记(十一)
# import sys
# n=int(sys.argv[1])
# with open('dicts.txt') as f:
# ele = f.readlines()####################################
#爬取猫眼电影排行数据
import requests
import re
import time
import json
from requests.exceptions import RequestException
def get_page(url):try:headers = {"user-agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36"}resp = requests.get(url=url,headers=headers)if resp.status_code == 200:return resp.textreturn None ###和break的效果一样 退出整个函数 而pass指的是退出当前循环except RequestException:return None
def parse_page(resp):#### 看network里面response的html内容 element里面可能经过js渲染不是真实的#### 正则表达式 .*? 的重要性 如果直接打两个标签 如果两个标签之间有空格没打出来 也匹配不到 尽量多用.*?#### 因为自己写可能漏掉空格pattern = repile('<dd>.*?board-index.*?>(\d+)</i>.*?data-src="(.*?)"'+ '.*?alt="(.*?)".*?<p class="star">(.*?)</p>'+'.*?releasetime">(.*?)</p>.*?'+'integer">(.*?)</i>.*?'+'fraction">(.*?)</i>',re.S) ###re.S的作用是让,匹配包括换行符在内的所有字符 因为html文本很多是有换行的# pattern = repile('<dd>.*?board-index.*?>(\d+)</i>.*?data-src="(.*?)".*?name"><a'# + '.*?>(.*?)</a>.*?star">(.*?)</p>.*?releasetime">(.*?)</p>'# + '.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>', re.S)
# # <dd>
# <i class="board-index board-index-1">1</i>
# <a href="/films/13824" title="射雕英雄传之东成西就" class="image-link" data-act="boarditem-click" data-val="{movieId:13824}">
# <img src="//s3plus.meituan/v1/mss_e2821d7f0cfe4ac1bf9202ecf9590e67/cdn-prod/file:5788b470/image/loading_2.e3d934bf.png" alt="" class="poster-default" />
# <img data-src=".jpg@160w_220h_1e_1c" alt="射雕英雄传之东成西就" class="board-img" />
# </a>
# <div class="board-item-main">
# <div class="board-item-content">
# <div class="movie-item-info">
# <p class="name"><a href="/films/13824" title="射雕英雄传之东成西就" data-act="boarditem-click" data-val="{movieId:13824}">射雕英雄传之东成西就</a></p>
# <p class="star">
# 主演:张国荣,梁朝伟,张学友
# </p>
# <p class="releasetime">上映时间:1993-02-05(中国香港)</p> </div>
# <div class="movie-item-number score-num">
# <p class="score"><i class="integer">8.</i><i class="fraction">8</i></p>
# </div>
#
# </div>
# </div>
#
# </dd>##items = re.findall(pattern,resp) ###一个包含很多元组的列表####其中一个元组#('1', '.jpg@160w_220h_1e_1c',# '射雕英雄传之东成西就', '\n 主演:张国荣,梁朝伟,张学友\n ',# '上映时间:1993-02-05(中国香港)', '8.', '8')#### 一个元组生成一个字典#### 一个页面循环返回多个字典for item in items:yield{'index':item[0],'image':item[1],'title':item[2],'actor':item[3].strip()[3:] if len(item[3])>3 else '', #strip()函数去掉多余的空格或换行符#[3:] 从下标3开始 【0:】代表从下表0开始 只要第三个字符 以后 的字符 下标0123 即从第四个字符开始取 去掉 主演:这三个字符 只要演员名字#if len(item[3])>3 else'' 只有item[3]大于三个字符才执行前面的语句 否则‘’保证安全不空'time':item[4].strip()[5:] if len(item[4])>5 else '','score':item[5].strip()+item[6].strip()}#yield 相当于return 在程序中返回某个值
def write_to_file(item):with open('catmovie.txt','a',encoding='utf-8') as fp:fp.write(json.dumps(item,ensure_ascii=False)+'\n') #json.dumps()函数是将字典转化为字符串#json.loads()函数是将字符串转化为字典
def main():#=10for i in range(2):offset = 10*iurl = '='+str(offset)resp = get_page(url)#获取网页的返回结果items = parse_page(resp)#解析网页的返回结果 yield{}返回的#print('parse_page返回的解析结果 :'+str(items)) #<generator object parse_page at 0x03CDA4F0>time.sleep(1)for item in items:print(item)write_to_file(item)#持久化存储
if __name__=="__main__":main()
###################################################################################################
#github
# import json
# import requests
# from requests.exceptions import RequestException
# import re
# import time
#
#
# def get_one_page(url):
# try:
# headers = {
# "user-agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36"}
# response = requests.get(url, headers=headers)
# if response.status_code == 200:
# return response.text
# return None
# except RequestException:
# return None
#
#
# def parse_one_page(html):
# pattern = repile('<dd>.*?board-index.*?>(\d+)</i>.*?data-src="(.*?)".*?name"><a'
# + '.*?>(.*?)</a>.*?star">(.*?)</p>.*?releasetime">(.*?)</p>'
# + '.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>', re.S)
# items = re.findall(pattern, html)
# for item in items:
# yield {
# 'index': item[0],
# 'image': item[1],
# 'title': item[2],
# 'actor': item[3].strip()[3:],
# 'time': item[4].strip()[5:],
# 'score': item[5] + item[6]
# }
#
#
# def write_to_file(content):
# with open('maoyanmoviesresult.txt', 'a', encoding='utf-8') as f:
# f.write(json.dumps(content, ensure_ascii=False) + '\n')
#
#
# def main(offset):
# url = '=' + str(offset)
# html = get_one_page(url)
# for item in parse_one_page(html):
# print(item)
# write_to_file(item)
#
#
# if __name__ == '__main__':
# for i in range(10):
# main(offset=i * 10)
# time.sleep(1)
本文标签: Python爬虫学习笔记(十一)
版权声明:本文标题:Python爬虫学习笔记(十一) 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.roclinux.cn/p/1700276284a375941.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论