Out of memory (已爬文) - Linux

Table of Contents

想請問各位前輩
我在Linux(2.6.36) 上寫了一個"收UART資料 存到SD"的程式

在測試的時候發現擺了約1天後 就發生out of memory 死機
(確認沒有我的程式 不會out of mmemory死機)

使用過 mtrace 來抓程式碼memory leak
但結果並無 memory leak
只有一個link list 沒有free 是我來存設定檔的

我在 開機後一分鐘 和 擺了半天後 各抓了一份 /proc/slabinfo

發現有兩個值相差過大 而且都持續增加不會減少

開機
inode_cache 552 658 272 14 1 : tunables 54 27 0 : slabdata 47 47 0

size-32 7200 7260 128 30 1 : tunables 120 60 0 : slabdata 242 242 0

半天
inode_cache 36246 36246 272 14 1 : tunables 54 27 0 : slabdata 2589 2589 0

size-32 41010 41010 128 30 1 : tunables 120 60 0 : slabdata 1367 1367 0

這兩個項目代表 inode_cache(filesystem) size-32(malloc 使用這個)

網路上查了一下 可下 sync;echo 3 > /proc/sys/vm/drop_caches
手動清除 pagecache、dentry、inode

但用過之後情況並沒有改善

我也有檢查過我的程式 所以malloc 都有 free

想請問

1.inode_cache 除了 用 /proc/sys/vm/drop_caches 手動清除
還有甚麼方法可以清除?
5B
2.size-32 我已確定我的程式有malloc 的地方都有做free
有fopen 的地方 都有fclose
為甚麼 size-32 的 使用數 還是一直往上加??

3.使用thread 會是造成這個問題的原因嗎??

--

All Comments

Candice avatarCandice2014-12-28
你寫的東西是driver?
Vanessa avatarVanessa2014-12-29
不是driver 純粹收uart(從/dev/ttyUSB) 存到sd卡
Delia avatarDelia2014-12-29
感覺還是你的程式本身佔用太多記憶體所以 crash
Valerie avatarValerie2015-01-01
你可以簡單寫個 script 放在 crontab 內定期執行
Elizabeth avatarElizabeth2015-01-02
程式碼就是跑 ps aux | grep your_program > result.txt
Kama avatarKama2015-01-06
然後檢視一下記憶體佔用狀態,可以初步確認是否該問題
Robert avatarRobert2015-01-11
感覺是kernel mmc/sd driver 的問題。
Poppy avatarPoppy2015-01-12
readonly 大大 請問會這樣認為 是因為inode_cache 的原因
嗎?
Jacky avatarJacky2015-01-13
系統 cache 本身有管理機制,不大可能因為用太多而當掉
Enid avatarEnid2015-01-14
inode_cache不管怎長都無所謂 有需要系統會自己清....
Dora avatarDora2015-01-17
會不會是跟driver要了什麼東西後沒有放掉? 軟體本身memery
leak頂多就被oom killer砍了,系統一般不會掛點
Catherine avatarCatherine2015-01-22
樓上指出重點,通常只有kernel和driver會搞死系統,user程
William avatarWilliam2015-01-26
式除非是用來專攻os漏洞的,不然幾乎只會死自己不死系統
Catherine avatarCatherine2015-01-30
感覺你是檔案打開後沒有做相對應的關閉動作,導致開
啟的檔案數量太多,超過了系統上限,並不是記憶體洩
漏的問題。
Quintina avatarQuintina2015-02-03
to fourdollar: 寫檔案我採用 開檔>寫入>關閉
Blanche avatarBlanche2015-02-04
每1hr 換一個檔案
Jake avatarJake2015-02-07
有考慮用 開檔 > 寫檔 (到達換檔案條件1hr)>關檔
這兩種方法會有差別嗎??
Michael avatarMichael2015-02-09
to kdjf : 是發生out of memory 然後開始砍程式 砍完
memory 也沒釋放 最後沒東西砍 就死機了!!
Joseph avatarJoseph2015-02-12
還是你要用 bash 的 ulimit 限制一下當下的資源環境
限制一下 file handle 與 memory 使用最大限制
超過使用量就可以限制住,資源也不會過度被耗費使用
Joseph avatarJoseph2015-02-14
只是你程式可能最後會 crash,但是系統至少不會 crash
Edith avatarEdith2015-02-19
你怎麼讀uart的? 把code放上來吧
Donna avatarDonna2015-02-22
也許可以定期去檢查 /proc/<pid>/ 底下有多少個數字
檔案來驗證是不是我所說的檔案數量過多的問題。
Charlotte avatarCharlotte2015-02-23
Donna avatarDonna2015-02-24
to fourdollars : 是看/proc/<pid>/limit 這檔案嗎??
Blanche avatarBlanche2015-02-27
裡面 只有 max stack size = 2088960 Max open file=1024
Max locked memory=65536 Max msgqueue size = 819200
Ingrid avatarIngrid2015-03-03
這四個有值 其他都是unlimited
Tracy avatarTracy2015-03-07
to kenduest : 這是個辦法!但是我比較想正解.. 找出問題
所在!