如果你没那么大的内存 解决方法有几个:

使用python 按数据大小逐块读取,使用完数据即释放该部分内存:
Python批量读取特定文件夹下Excel的话,主要分为2步,首先根据后缀名(xls或xlsx)匹配出所有Excel文件,然后直接利用相关模块(pandas,openpyxl等)读取即可,下面我简单介绍一下实现过程,感兴趣的朋友可以尝试一下:
这一步非常简单,主要是根据后缀名匹配所有Excel文件,基本思路先使用os.walk函数遍历指定的文件夹,找到所有文件,然后一一匹配文件后缀名,如果是xls或xlsx,则为Excel文件,添加到list列表,之后返回,后面读取函数就是根据这个列表(存储所有搜索到的Excel文件路径)读取Excel文件:
安装完成后,我们就可以直接使用pandas库读取Excel文件了,非常简单,只需要一行代码即可搞定,也就是read_excel函数,传入Excel文件路径就行,默认情况下会读取列标题,如果你不需要列标题的话,设置header=None即可,读取的数据类型为DataFrame,后续处理的话,也非常方便:
要将带有中文的 JSON 格式的数据写入文件,可以使用 Python 的内置 json 模块来处理 JSON 数据,并使用 with open() 语句将其写入文件。下面是一个示例代码:
# 假设你有一个包含中文的 JSON 字符串,例如:
# 使用 json.loads()将 JSON 字符串转换为 Python 对象
# 打开一个文件用于写入
# 使用 json.dump()将 Python 对象转换为 JSON 字符串并写入文件
在上面的代码中,我们首先使用 json.loads() 将 JSON 字符串转换为 Python 对象。然后,我们使用 with open() 语句打开一个文件 data.json ,并指定编码方式为 utf-8 ,以确保能够正确处理中文字符。最后,我们使用 json.dump() 将 Python 对象转换为 JSON 字符串并写入文件,指定 ensure_ascii=False 参数可以确保中文字符能够正确保存。
需要注意的是,如果你的 JSON 数据中包含中文字符,那么在写入文件时需要指定正确的编码方式,否则可能会出现中文乱码的问题。在上面的代码中,我们指定了编码方式为 utf-8 ,这是一种常见的中文编码方式。如果你的 JSON 数据中包含其他编码方式的中文字符,可以根据实际情况选择合适的编码方式。