是的,这个问题七年前就问过了,但在我看来,"答案 "并没有帮助。 如此多的开放数据使用JSON,所以我再次问这个问题,看看是否有更好的技术可用。 我正在加载一个28MB的JSON文件(有7000行),json.load使用的内存超过300MB。
这句话是重复运行的。 【替换代码0
并在程序运行期间吞噬了内存。 我试过其他各种语句,如:
pd.read_json(in_file_name, lines=True)
。