

新闻资讯
技术教程处理大文件应避免全量加载,采用流式读取、分块处理、内存映射(mmap)和生成器等策略。例如逐行迭代、pandas chunksize、np.memmap及yield替代列表累积,配合资源管理与内存监控,可稳定处理百GB级文件。
处理大文件时,Python容易因一次性加载全部数据导致内存溢出。核心思路是避免全量加载,改用流式读取、分块处理、延迟计算和外部存储等策略,让内存占用可控且稳定。
对超大文本文件(如日志、CSV),不用 readlines() 或 read(),而是逐行或按固定行数分批读取。既保持逻辑清晰,又控制内存峰值。
for line in f: 原生迭代,底层自动缓冲,内存友好pandas 的 read_csv() 支持 chunksize,返回 TextFileReader 对象,可迭代读取数据块,适合清洗、统计、写入等场景。
chunksize=5000:每次只加载 5000 行 DataFrame,处理完即释放pd.concat() 拼接结果时注意——仅在必要时才 concat,否则用 append 或直接写磁盘当文件内容为结构化二进制(如 float32 数组、自定义
record)、且无需全部解码时,mmap 可以把文件“映射”为内存视图,按需访问任意位置,不实际加载数据。
np.memmap('data.bin', dtype='float32', mode='r', shape=(1000000, 100))
很多逻辑默认用 list 存中间结果(如解析后过滤、转换),但大文件下这会迅速吃光内存。改成生成器函数,边产边用,不囤积。
results = [process(line) for line in f] → 全部存完才开始下一步def process_lines(f):
for line in f:
yield transform(line)
for item in process_lines(f): do_something(item)
itertools.islice、filter、map,进一步减少中间容器不复杂但容易忽略:及时关闭文件、用 with 管理资源、避免全局缓存大对象、监控内存(如 psutil.Process().memory_info().rss)。策略选对,百 GB 文件也能稳稳跑完。