文件系统中的数据量或者文件数目达到一定规模时,文件系统卡顿严重,请问有什么解决办法么?
在SD卡上是不是会有同样问题?
使用场景允许的话,有大量小数据的话,可以用sqlite代替dfs试试
littlefs的问题可以参靠我之前的这篇测试
https://club.rt-thread.org/ask/question/423119.html
目前我们的产品还会使用littlefs做文件系统,主要用来存储日志,还是为了稳定性考虑,
一般我们会用NAND做存储,NAND基本都是128一个块,我们现在的做法是文件只做追加,不覆盖写入,
随时记录文件的大小,当文件大于120K时,就另外再建一个文件,避免数据搬移导致写入效率降低,
同时也尽可能提高存储空间的利用率,我们只保存有用的数据,理论计算至少一年半才能存满,足够用了
谢谢,现在使用的就是这种方式,但是因为数据量比较大,还是会很卡。
多个文件循环写入,控制一下每个文件的大小,覆盖写入时先截断文件再写。