python爬虫实现中英翻译词典

yipeiwu_com5年前Python爬虫

本文实例为大家分享了python爬虫实现中英翻译词典的具体代码,供大家参考,具体内容如下

通过根据某平台的翻译资源,提取出翻译信息,并展示出来,包括输入,翻译,输出三个过程,主要利用python语言实现(python3.6),抓取信息展示。

import urllib.request
import urllib.parse
import json

def en_zh(content):
  url = 'http://fanyi.baidu.com/v2transapi'
  head = {}
  head['User-Agent'] = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
  
  data={}
  data['from'] = 'en'
  data['to'] = 'zh'
  data['query'] = content
  data['transtype'] = 'translang'
  data['simple_means_flag'] = '3'
  data = urllib.parse.urlencode(data).encode('utf-8')

  req =urllib.request.Request(url,data,head)
  response=urllib.request.urlopen(req)

  html = response.read().decode('utf-8')

  target = json.loads(html)
  print("翻译结果:%s" %(target['trans_result']['data'][0]['dst']))
def zh_en(content):

  url = 'http://fanyi.baidu.com/v2transapi'
  data={}
  data['from'] = 'zh'
  data['to'] = 'en'
  data['query'] = content
  data['transtype'] = 'translang'
  data['simple_means_flag'] = '3'
  data = urllib.parse.urlencode(data).encode('utf-8')

  req =urllib.request.Request(url,data)
  req.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36')
  response=urllib.request.urlopen(req)

  html = response.read().decode('utf-8')
  target = json.loads(html)
  print("翻译结果:%s" %(target['trans_result']['data'][0]['dst']))

while(True):
  content = input("请输入要翻译的内容(按q退出):")
  if content=='q':
    input("您已退出,欢迎再次使用")
    break

  en_zh(content) 
  zh_en(content)

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持【听图阁-专注于Python设计】。

相关文章

Python爬虫常用库的安装及其环境配置

Python爬虫常用库的安装及其环境配置

Python常用库的安装 urllib、re 这两个库是Python的内置库,直接使用方法import导入即可。 在python中输入如下代码: import urllib imp...

Python爬虫基础之XPath语法与lxml库的用法详解

Python爬虫基础之XPath语法与lxml库的用法详解

前言 本来打算写的标题是XPath语法,但是想了一下Python中的解析库lxml,使用的是Xpath语法,同样也是效率比较高的解析方法,所以就写成了XPath语法和lxml库的用法 X...

基于python框架Scrapy爬取自己的博客内容过程详解

基于python框架Scrapy爬取自己的博客内容过程详解

前言 python中常用的写爬虫的库常有urllib2、requests,对于大多数比较简单的场景或者以学习为目的,可以用这两个库实现。这里有一篇我之前写过的用urllib2+Beaut...

python抓取文件夹的所有文件

本文实例为大家分享了python抓取文件夹的所有文件的具体代码,供大家参考,具体内容如下 #!/user/bin/python # -*- coding:utf8 -*- i...

python爬虫 urllib模块反爬虫机制UA详解

python爬虫 urllib模块反爬虫机制UA详解

方法: 使用urlencode函数 urllib.request.urlopen() import urllib.request import urllib.parse url =...