使用实现pandas读取csv文件指定的前几行

yipeiwu_com6年前Python基础

用于存储数据的csv文件有时候数据量是十分庞大的,然而我们有时候并不需要全部的数据,我们需要的可能仅仅是前面的几行。

这样就可以通过pandas中read_csv中指定行数读取的功能实现。

例如有data.csv文件,文件的内容如下:

GreydeMac-mini:chapter06 greyzhang$ cat data.csv 
,name_01,coment_01,,,,
2,name_02,coment_02,,,,
3,name_03,coment_03,,,,
4,name_04,coment_04,,,,
5,name_05,coment_05,,,,
6,name_06,coment_06,,,,
7,name_07,coment_07,,,,
8,name_08,coment_08,,,,
9,name_09,coment_09,,,,
10,name_10,coment_10,,,,
11,name_11,coment_11,,,,
12,name_12,coment_12,,,,
13,name_13,coment_13,,,,
14,name_14,coment_14,,,,
15,name_15,coment_15,,,,
16,name_16,coment_16,,,,
17,name_17,coment_17,,,,
18,name_18,coment_18,,,,
19,name_19,coment_19,,,,
20,name_20,coment_20,,,,
21,name_21,coment_21,,,,

如果我们需要的数据仅仅是前5行,那么读取方式可以通过nrows的方式进行指定。编写代码如下:

 1 #!/usr/bin/python
 2 
 3 import pandasas pd
 4 
 5 data = pd.read_csv('data.csv',nrows =5)
 6 print(data)
 7 

代码的运行结果如下:

GreydeMac-mini:chapter06 greyzhang$ python row_test.py 
 Unnamed: 0 name_01 coment_01 Unnamed: 3 Unnamed: 4 Unnamed: 5 \
0   2 name_02 coment_02   NaN   NaN   NaN 
1   3 name_03 coment_03   NaN   NaN   NaN 
2   4 name_04 coment_04   NaN   NaN   NaN 
3   5 name_05 coment_05   NaN   NaN   NaN 
4   6 name_06 coment_06   NaN   NaN   NaN 
 Unnamed: 6 
0   NaN 
1   NaN 
2   NaN 
3   NaN 
4   NaN 
GreydeMac-mini:chapter06 greyzhang$ 

从上面的结果中可以看出,通过指定读取行数实现了预期的功能。

以上这篇就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持【听图阁-专注于Python设计】。

相关文章

python返回昨天日期的方法

本文实例讲述了python返回昨天日期的方法。分享给大家供大家参考。具体实现方法如下: #-*-coding:utf-8-*- import datetime def getYes...

Python3.0 实现决策树算法的流程

决策树的一般流程 检测数据集中的每个子项是否属于同一个分类 if so return 类标签 Else   寻找划分数据集的最好特征    ...

在cmd中查看python的安装路径方法

在cmd中查看python的安装路径方法

我相信一定有很多的人跟我一样,经常忘记Python安装的路径,每当用到的时候,最笨的办法就是在全局电脑里,直接查找Python,这样是肯定能查到的,但是如果你的电脑文件超级多,这将是一个...

Python实现针对给定字符串寻找最长非重复子串的方法

Python实现针对给定字符串寻找最长非重复子串的方法

本文实例讲述了Python实现针对给定字符串寻找最长非重复子串的方法。分享给大家供大家参考,具体如下: 问题: 给定一个字符串,寻找其中最长的重复子序列,如果字符串是单个字符组成的话如“...

Python实现的一个简单LRU cache

起因:我的同事需要一个固定大小的cache,如果记录在cache中,直接从cache中读取,否则从数据库中读取。python的dict 是一个非常简单的cache,但是由于数据量很大,内...