【直】ふぅ、AWS落ち着いたぁ。

kooです。どもす。
 
はい、どもす。
このBLOGとは、完全に別ものですが、もう1個のサーバ
AWSの方です。
 
どうも、午前4時頃にoom-killerという素敵な命令が発動して、
私のかわいいサーバちゃんを、がっつり停止状態に陥れてくれる。
※ちゃんと設定しておくことで、重要なプロセスにはoom-killerが発動されない。

→ ちゃんと設定していないから、重要なプロセスを叩き落す 素敵なoom-killerちゃん。
 
まぁ、そんなわけで、
oom-killerが発動する原因は何かなぁ。と探って行きました。
ぶっちゃけ、メモリとスワップを使い切ったら oom-killerが発動するんだから
そうなった時間から、何が動いたのかCronのlog見て確認。
 
あはははん。
 
まぁ、高負荷の原因はCACTIでした。。。。。

まぁ、AWSですから、Managementコンソールの方から負荷が見えるので、
cacti停めてもいいっか。って感じ。
 
んで、連動するものとしていろいろ停止できたので、
停止させちゃいます。
net-snmp-utils とか net-snmpとか rrdtoolもいらないので、停止。
 BLOGも完全にvktecに戻したので、mysqlもいらないから停止。ってな具合。
 
んで、↑の図のような状態になりました。
※9時間時差があるのは、仕様ですw
 
なんか、おかしい30分刻みで何かが動いて 負荷100%になってると思ったら、
clamavが、一生懸命 存在しないディレクトリをワシワシと探している。
そりゃ、負荷あがりっぱになるわ。
 
つぅわけで、書いたshも( ;´Д`) っ.。.:*・゜゚・ rmしてさようなら。
 
で、↑の図の 右側の状態を維持するようになりました。
CPU使い切るっつったって、ねぇ・・・・。
我が家のXeonよりは、そりゃ非力でしょうけど、AWSのCPUはけっこう頑張ってくれるので、
信頼しているんですが、コンソールでも処理落ちするくらいの高負荷状態ですからね。
限界やねん。それ。
 
まぁ、何にせよ 明日の朝 確認してみて
稼働状態とLogを見てみようっと。
 

ツイートツイート

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です