加入收藏 | 设为首页 | 会员中心 | 我要投稿 | RSS
您当前的位置:首页 > 本地

python 读取大文件数据怎么快速读取

时间:2024-03-05 19:21:54  来源:http://www.gzrxw.net  作者:admin

一、python 读取大文件数据怎么快速读取

python中读取数据的时候有几种方法,无非是read,readline,readlings和xreadlines几种方法,在几种方法中,read和xreadlines可以作为迭代器使用,从而在读取大数据的时候比较有效果.

在测试中,先创建一个大文件,大概1GB左右,使用的程序如下:

[python] view plaincopyprint?

import os.path

import time

while os.path.getsize('messages') <1000000000:

f = open('messages','a')

f.write('this is a file/n')

f.close()

print 'file create complted'

在这里使用循环判断文件的大小,如果大小在1GB左右,那么结束创建文件。--需要花费好几分钟的时间。

测试代码如下:

[python] view plaincopyprint?

#22s

start_time = time.time()

f = open('messages','r')

for i in f:

end_time = time.time()

print end_time - start_time

break

f.close()

#22s

start_time = time.time()

f = open('messages','r')

for i in f.xreadlines():

end_time = time.time()

print end_time - start_time

break

f.close()

start_time = time.time()

f = open('messages','r')

k= f.readlines()

f.close()

end_time = time.time()

print end_time - start_time

使用迭代器的时候,两者的时间是差不多的,内存消耗也不是很多,使用的时间大概在22秒作用

在使用完全读取文件的时候,使用的时间在40s,并且内存消耗相当严重,大概使用了1G的内存。。

其实,在使用跌倒器的时候,如果进行连续操作,进行print或者其他的操作,内存消耗还是不可避免的,但是内存在那个时候是可以释放的,从而使用迭代器可以节省内存,主要是可以释放。

而在使用直接读取所有数据的时候,数据会保留在内存中,是无法释放这个内存的,从而内存卡死也是有可能的。

在使用的时候,最好是直接使用for i in f的方式来使用,在读取的时候,f本身就是一个迭代器,其实也就是f.read方法

二、python 读取并处理本地mysql怎么加快速度

①设置该字段是索引;

②如果是迁移数据库的话,那就直接导出数据库或者直接复制mysql 目录下面的data相关文件;

③可以分表,100w可以分5个表,每个表20w条数据;

三、Python初学者基础之如何读取文件格式

Python最主要的应用就是爬虫,即自动获取网页内容的程序。文件是网页内容的重要存储模式,如何利用Python读取文件呢?今天千锋老师就来给大家分享一下Python初学者教程中关于读取文件的有关知识。

大局部爬虫一般按照“发送恳求——取得页面——解析页面——抽取并贮存内容”的流程,想要读取信息,我们就要了解数据的存储方式,其中文件格式是比较常见的一种。

所谓文件格式,是指文件中存储信息的一种标准方法。首先,文件格式指定文件是一个二进制或ASCII文件。其次,文件展示了文件的组织形式,如CSV、XLSX等。

四、python如何打开txt文件读取内容 请拿Wordsworth.py举例~

用cmd输入

wordsworth.py --filename 文件路径

五、怎么用python读取txt文件中的数据

使用open函数。比如:

f=open('test.txt','r')

test.txt只是我举例的一个文件。r是读取模式,还有w,写模式,a,追加模式

来顶一下
返回首页
返回首页
发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表
推荐资讯
相关文章
    无相关信息
栏目更新
栏目热门