国产99久久精品_欧美日本韩国一区二区_激情小说综合网_欧美一级二级视频_午夜av电影_日本久久精品视频

最新文章專題視頻專題問答1問答10問答100問答1000問答2000關(guān)鍵字專題1關(guān)鍵字專題50關(guān)鍵字專題500關(guān)鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關(guān)鍵字專題關(guān)鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
當(dāng)前位置: 首頁 - 科技 - 知識百科 - 正文

Python中使用MELIAE分析程序內(nèi)存占用實例

來源:懂視網(wǎng) 責(zé)編:小采 時間:2020-11-27 14:31:46
文檔

Python中使用MELIAE分析程序內(nèi)存占用實例

Python中使用MELIAE分析程序內(nèi)存占用實例:寫的dht協(xié)議搜索的程序,這幾天優(yōu)化了一下發(fā)現(xiàn)速度確實快了好多。但是出現(xiàn)了一個新的問題,內(nèi)存直接飆升,我開了十個爬蟲占用內(nèi)存800m。開始我以為是節(jié)點太多了,找了幾個小問題修改一下,發(fā)現(xiàn)沒用。后來就到網(wǎng)上查找python內(nèi)存分析的工具,查了一點資料發(fā)現(xiàn)
推薦度:
導(dǎo)讀Python中使用MELIAE分析程序內(nèi)存占用實例:寫的dht協(xié)議搜索的程序,這幾天優(yōu)化了一下發(fā)現(xiàn)速度確實快了好多。但是出現(xiàn)了一個新的問題,內(nèi)存直接飆升,我開了十個爬蟲占用內(nèi)存800m。開始我以為是節(jié)點太多了,找了幾個小問題修改一下,發(fā)現(xiàn)沒用。后來就到網(wǎng)上查找python內(nèi)存分析的工具,查了一點資料發(fā)現(xiàn)

寫的dht協(xié)議搜索的程序,這幾天優(yōu)化了一下發(fā)現(xiàn)速度確實快了好多。但是出現(xiàn)了一個新的問題,內(nèi)存直接飆升,我開了十個爬蟲占用內(nèi)存800m。開始我以為是節(jié)點太多了,找了幾個小問題修改一下,發(fā)現(xiàn)沒用。后來就到網(wǎng)上查找python內(nèi)存分析的工具,查了一點資料發(fā)現(xiàn)python有個meliae庫操作非常方便,就使用分析了一下,發(fā)現(xiàn)不是節(jié)點太多的原因0 0,是保存發(fā)送的t_id,用來標(biāo)示返回的消息是那個發(fā)出的一個字典過大了。

從分析的結(jié)果非常容易的定位了某個對象的數(shù)量和大小,非常容易分析。我開始以為是因為好多發(fā)送查詢信息以后,對面沒返回造成這個字典里的元素沒有釋放造成的,我就用過期時間判斷了一下,進行過期刪除。發(fā)現(xiàn)是小了,但是不是非常顯著,好像少了幾十不到100M。后來又減少了查找一個隨機hash的時間,以前是1分鐘查一次,我改成了就第一次查!,發(fā)現(xiàn)沒減少0 0.不知道是啥的原因。應(yīng)該就是查找hash,詢問節(jié)點,然后返回然后詢問里邊的節(jié)點,最后數(shù)量越來越多,但是我不明白的是,怎么會這么多運行一分鐘就有60萬條。也就是說當(dāng)時內(nèi)存沒釋放的對象就有這么多。達到這個內(nèi)存占用后,基本就不再變化,有很小很慢的提升,因為還開的其他程序,不確定是不是這些程序其他對象的增加造成的。等分階段dump測試一下。

安裝直接pip install meliae 就ok了,我看好久沒更新的項目了,不知道還有沒有好的替代品不過用著還不錯。

將內(nèi)存dump到文件
代碼如下:


from meliae import scanner
scanner.dump_all_objects('/tmp/dump%s.txt' % time.time())


分析文件:
代碼如下:


from meliae import loader
#加載dump文件
om = loader.load('/opt/log/dump.txt')
#計算各Objects的引用關(guān)系
om.compute_parents()
#去掉各對象Instance的_dict_屬性
om.collapse_instance_dicts()
#分析內(nèi)存占用情況
om.summarize()


字段意義如下:
Index : 行索引號
Count : 該類型的對象總數(shù)
%(Count) : 該類型的對象總數(shù) 占 所有類型的對象總數(shù) 的百分比
Size : 該類型的對象總字節(jié)數(shù)
%(Size) : 該類型的對象總字節(jié)數(shù) 占 所有類型的對象總字節(jié)數(shù) 的百分比
Cum : 累積行索引后的%(Size)
Max : 該類型的對象中,最大者的字節(jié)數(shù)
Kind : 類型

分析某個對象,找出它的引用關(guān)系
代碼如下:


#得到所有的POP3ClientProtocol對象
p = om.get_all('POP3ClientProtocol')
#查看第一個對象
p[0]
#可以查看該對象的所有引用
p[0].c
#查看誰引用了這個對象
p[0].p

聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

文檔

Python中使用MELIAE分析程序內(nèi)存占用實例

Python中使用MELIAE分析程序內(nèi)存占用實例:寫的dht協(xié)議搜索的程序,這幾天優(yōu)化了一下發(fā)現(xiàn)速度確實快了好多。但是出現(xiàn)了一個新的問題,內(nèi)存直接飆升,我開了十個爬蟲占用內(nèi)存800m。開始我以為是節(jié)點太多了,找了幾個小問題修改一下,發(fā)現(xiàn)沒用。后來就到網(wǎng)上查找python內(nèi)存分析的工具,查了一點資料發(fā)現(xiàn)
推薦度:
  • 熱門焦點

最新推薦

猜你喜歡

熱門推薦

專題
Top
主站蜘蛛池模板: 亚洲精品第1页 | 在线免费观看国产视频 | 国产日韩欧美精品 | 久久精品亚洲欧美日韩久久 | 欧美日韩精品国产一区二区 | 精品久久久久中文字幕日本 | 亚洲欧美另类日韩 | 国产成人调教视频在线观看 | 亚洲综合视频 | 日韩午夜免费电影 | 国产最新精品视频 | 中国特黄毛片 | 在线欧美视频免费观看国产 | 国产亚洲视频在线观看 | 国产福利一区二区三区在线观看 | 亚洲国产激情 | 日本成人一级 | 亚洲视频在线看 | 久久久久久久国产a∨ | 国产欧美曰韩一区二区三区 | 91精品一区二区 | 欧美视频免费在线观看 | 日韩经典第一页 | 国产精品亚洲精品日韩动图 | 久久国产精品成人免费 | 国产精品久久国产精麻豆99网站 | 久久国产影院 | 国产精品成人一区二区三区 | 精品一区二区三区四区五区 | 91精品专区 | 亚洲图片国产日韩欧美 | 国产欧美日本在线 | 中文一区 | 日本久久网站 | 偷拍亚洲欧美 | 久久久久国产精品美女毛片 | 日韩欧美专区 | 欧美a在线播放 | 久久国产精品久久久久久久久久 | 香蕉视频你懂的 | 国产成人综合久久精品亚洲 |