python爬虫实现中英翻译词典

yipeiwu_com6年前Python爬虫

本文实例为大家分享了python爬虫实现中英翻译词典的具体代码,供大家参考,具体内容如下

通过根据某平台的翻译资源,提取出翻译信息,并展示出来,包括输入,翻译,输出三个过程,主要利用python语言实现(python3.6),抓取信息展示。

import urllib.request
import urllib.parse
import json

def en_zh(content):
  url = 'http://fanyi.baidu.com/v2transapi'
  head = {}
  head['User-Agent'] = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
  
  data={}
  data['from'] = 'en'
  data['to'] = 'zh'
  data['query'] = content
  data['transtype'] = 'translang'
  data['simple_means_flag'] = '3'
  data = urllib.parse.urlencode(data).encode('utf-8')

  req =urllib.request.Request(url,data,head)
  response=urllib.request.urlopen(req)

  html = response.read().decode('utf-8')

  target = json.loads(html)
  print("翻译结果:%s" %(target['trans_result']['data'][0]['dst']))
def zh_en(content):

  url = 'http://fanyi.baidu.com/v2transapi'
  data={}
  data['from'] = 'zh'
  data['to'] = 'en'
  data['query'] = content
  data['transtype'] = 'translang'
  data['simple_means_flag'] = '3'
  data = urllib.parse.urlencode(data).encode('utf-8')

  req =urllib.request.Request(url,data)
  req.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36')
  response=urllib.request.urlopen(req)

  html = response.read().decode('utf-8')
  target = json.loads(html)
  print("翻译结果:%s" %(target['trans_result']['data'][0]['dst']))

while(True):
  content = input("请输入要翻译的内容(按q退出):")
  if content=='q':
    input("您已退出,欢迎再次使用")
    break

  en_zh(content) 
  zh_en(content)

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持【听图阁-专注于Python设计】。

相关文章

python抓取网页图片并放到指定文件夹

python抓取网站图片并放到指定文件夹 复制代码 代码如下:# -*- coding=utf-8 -*-import urllib2import urllibimport socket...

Python爬虫 urllib2的使用方法详解

所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地。在Python中有很多库可以用来抓取网页,我们先学习urllib2。 urllib2是Python2.x自带...

在Python中使用cookielib和urllib2配合PyQuery抓取网页信息

在Python中使用cookielib和urllib2配合PyQuery抓取网页信息

刚才好无聊,突然想起来之前做一个课表的点子,于是百度了起来。 刚开始,我是这样想的:在写微信墙的时候,用到了urllib2【两行代码抓网页】,那么就只剩下解析html了。于是百度:pyt...

python3.X 抓取火车票信息【修正版】

python3.X 抓取火车票信息【修正版】

代码是在源代码的基础上进行的修改。希望对你有所帮助!  实现后如图所示: 首先我们需要抓取一些基础的数据,各大火车站信息! import urllib from urll...

python多线程+代理池爬取天天基金网、股票数据过程解析

python多线程+代理池爬取天天基金网、股票数据过程解析

简介 提到爬虫,大部分人都会想到使用Scrapy工具,但是仅仅停留在会使用的阶段。为了增加对爬虫机制的理解,我们可以手动实现多线程的爬虫过程,同时,引入IP代理池进行基本的反爬操作。...