失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > Jupyter处理大量数据导致内存溢出 网页崩溃的解决办法

Jupyter处理大量数据导致内存溢出 网页崩溃的解决办法

时间:2020-06-04 05:45:36

相关推荐

Jupyter处理大量数据导致内存溢出 网页崩溃的解决办法

求点赞!!

Jupyter处理大量数据,会导致堆栈内存溢出,像我用chrome的话,就是导致网页崩溃。

其实,jupyter的单个模块限制的大小上限为100MB,所以基本上,你的代码大过这个数值,就会导致网页崩溃,解决办法是提高jupyter默认的处理文件上限。

通过路径

envs\fcLCA\Lib\site-packages\tornado\

找到文件iostream.py

找到self.max_buffer_size一般在150行左右的样子(根据版本不同)

默认设置的是100 MB,我把它改为了1000MB,现在用起来基本没什么问题

如果觉得《Jupyter处理大量数据导致内存溢出 网页崩溃的解决办法》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。