python智联招聘爬虫并导入到excel代码实例

yipeiwu_com6年前Python爬虫

这篇文章主要介绍了python智联招聘爬虫并导入到excel代码实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下

写了一个智联招聘的爬虫,只要输入职位关键字,就能快速导出智联招聘上的数据,存在excel表里~

import requests,openpyxl
#建立excel表
joblist=[]
wb=openpyxl.Workbook()
sheet=wb.active
sheet.title='智联招聘数据'
sheet['A1']='职位名称'
sheet['B1']='薪资'
sheet['C1']='工作经验'
#爬虫
keyword=str(input('请输入查找职位的关键字:'))
url='https://fe-api.zhaopin.com/c/i/sou'
headers={
  'Referer': 'https://sou.zhaopin.com/?p=2&jl=653&et=2&kw=%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90&kt=3&sf=0&st=0',
  'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_4) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/12.1 Safari/605.1.15'
  }
for n in range(5):
  params={
    'start': str(90*n),
    'pageSize': '90',
    'cityId': '653',
    'salary': '0,0',
    'workExperience': '-1',
    'education':'4',
    'companyType': '-1',
    'employmentType': '2',
    'jobWelfareTag': '-1',
    'kw': keyword,
    'kt': '3',
    'at': '9faf2d5cc87b4141a33c493c248ce1eb',
    'rt': 'c678689ef9144475b2030fe55c12fe5c',
    '_v': '0.53075950',
    'userCode': '638259962',
    'x-zp-page-request-id': '9eb3c2c955dd4a8db3c8224a177ebdd5-1567575573029-133510',
    'x-zp-client-id': 'cd7e0b11-a761-4a2f-a8be-2e6a9da3f068'
    }  
  res=requests.get(url,headers=headers,params=params)
  jsonres=res.json()
  positions=jsonres['data']['results']
  for position in positions:
    jobname=position['jobName']
    salary=position['salary']
    workingExp=position['workingExp']['name']
    joblist.append([jobname,salary,workingExp])
#写入excel
for row in joblist:
  sheet.append(row)  
wb.save('智联招聘数据.xlsx')
print('数据爬取成功!')

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持【听图阁-专注于Python设计】。

相关文章

使用requests库制作Python爬虫

使用python爬虫其实就是方便,它会有各种工具类供你来使用,很方便。Java不可以吗?也可以,使用httpclient工具、还有一个大神写的webmagic框架,这些都可以实现爬虫,只...

python使用mitmproxy抓取浏览器请求的方法

最近要写一款基于被动式的漏洞扫描器,因为被动式是将我们在浏览器浏览的时候所发出的请求进行捕获,然后交给扫描器进行处理,本来打算自己写这个代理的,但是因为考虑到需要抓取https,所以最后...

python爬虫 2019中国好声音评论爬取过程解析

python爬虫 2019中国好声音评论爬取过程解析

2019中国好声音火热开播,作为一名“假粉丝”,这一季每一期都刷过了,尤其刚播出的第六期开始正式的battle。视频视频看完了,那看下大家都是怎样评论的。 1.网页分析部分 本文爬取的...

在scrapy中使用phantomJS实现异步爬取的方法

使用selenium能够非常方便的获取网页的ajax内容,并且能够模拟用户点击和输入文本等诸多操作,这在使用scrapy爬取网页的过程中非常有用。 网上将selenium集成到scrap...

利用python-pypcap抓取带VLAN标签的数据包方法

利用python-pypcap抓取带VLAN标签的数据包方法

1、背景介绍 在采用通常的socket抓包方式下,操作系统会自动将收到包的VLAN信息剥离,导致上层应用收到的包不会含有VLAN标签信息。而libpcap虽然是基于socket实现抓包,...