简单使用Python自动生成文章

yipeiwu_com5年前Python基础

  为了应付某些情况,需要做17份记录。虽然不很重要,但是17份完全雷同也不很好。大体看了一下,此记录大致分为四段。于是决定每段提供四种选项,每段四选一,拼凑成四段文字,存成一个文件。文件名就叫“XX记录+日期”。应急的随手创作,使用了“文件操作”和“生成随机数”的功能。比较简陋。后期扩展可以考虑搭配个数据库。

复制代码 代码如下:

# -*- coding: cp936 -*-
import random
title='XXX周例会\n会议时间: '
timelist=['6月6日','6月13日','6月20日','6月27日','7月4日','7月11日','7月18日','7月25日',
          '8月1日','8月8日','8月15日','8月22日','8月29日',
          '9月5日','9月12日','9月19日','9月26日',
          ]#包含17个日期的列表
str1='会议地点: XXX房间\n'
str2='主持人: 张三\n'
str3='参加人员: AAA、BBB、ccc\n会议内容:\n '
list1=['第一段(A型)\n','第一段(B型)\n','第一段(C型)\n','第一段(D型)\n']
list2=['第二段(A型)\n','第二段(B型)\n','第二段(C型)\n','第二段(D型)\n']
list3=['第三段(A型)\n','第三段(B型)\n','第三段(C型)\n','第三段(D型)\n']
list4=['第四段(A型)\n','第四段(B型)\n','第四段(C型)\n','第四段(D型)\n']
for i in range(0,17):
    aa=random.randint(0,3)#随机赋给aa“0、1、2,3”三个值
    bb=random.randint(0,3)
    cc=random.randint(0,3)
    dd=random.randint(0,3)
    print timelist[i]
    print aa,bb,cc,dd
    f=open('XXX周例会'+timelist[i]+'.txt','w')# 新建文件,文件名是“标题+日期”。r只读,w可写,a追加
    f.write(title + timelist[i] + '\n' + str1 + str2 + str3 + list1[aa] + list2[bb] + list3[cc] + list4[dd] + '\n')
    #在文件中写入随机生成的第一段,第二段,第三段,第四段。
    f.close()#关闭文件读写。

给某党看的东西,哎,我天朝。。。。。小伙伴们还是关注下本文的思路吧,其他不是目前我们能考虑的^_^

相关文章

对python多线程SSH登录并发脚本详解

对python多线程SSH登录并发脚本详解

测试系统中有一项记录ssh登录日志,需要对此进行并发压力测试。 于是用多线程进行python并发记录 因为需要安装的一些依赖和模块比较麻烦,脚本完成后再用pyinstaller打成exe...

Python处理session的方法整理

Python处理session的方法整理

前言: 不管是在做接口自动化还是在做UI自动化,测试人员遇到的第一个问题都是卡在登录上。 那是因为在执行登录的时候,服务端会有一种叫做session的会话机制。 一个很简单的例子:...

python常用库之NumPy和sklearn入门

python常用库之NumPy和sklearn入门

Numpy 和 scikit-learn 都是python常用的第三方库。numpy库可以用来存储和处理大型矩阵,并且在一定程度上弥补了python在运算效率上的不足,正是因为numpy...

Python搭建Spark分布式集群环境

Python搭建Spark分布式集群环境

前言 Apache Spark 是一个新兴的大数据处理通用引擎,提供了分布式的内存抽象。Spark 最大的特点就是快,可比 Hadoop MapReduce 的处理速度快 100 倍。本...

Python+matplotlib绘制不同大小和颜色散点图实例

Python+matplotlib绘制不同大小和颜色散点图实例

 具有不同标记颜色和大小的散点图演示。 演示结果: 实现代码: import numpy as np import matplotlib.pyplot as plt...