[Users] SPARC T4 チューンについて

Masa Murayama khf04453 @ nifty.ne.jp
2013年 12月 3日 (火) 00:41:33 JST




----- Original Message -----
>Date: Mon, 02 Dec 2013 23:43:48 +0900
>From: "master @ zio-matrix.net" <master @ zio-matrix.net>
>To: users @ opensolaris.gr.jp
>Subject: Re: [Users]
>	SPARC T4 チューンについて
>
>
>村山 さん
>
>
>難波です。お久しぶりです。

おひさしぶりです。

>> 割り込み処理の負荷状態
>>   mpstat, intrstat
>
>intrstat は知らなかったです。便利ですね。
>
>M3000 はまだいいのですが、T4-1 は 64 個も表示が・・・

T4でも割り込みは数個のコアに集中しているはずです。そこだけ見ればよいです。

>> CPU使用率など
>>   vmstat
>
>これだとスカスカですね。T4-1
>CPU
>us sy id
>4  5  91
>位だったと思います。詰まってる状態で。(sar の残骸で確認
>
>> 平均ランキュー長
>>   sar -q 
>
>us sy id
>4  5  91
>
>の時で
>
>runq-sz %runocc swpq-sz %swpocc
>    3.0     100     0.0       0
>
>なので完全につまっていますよね?

不思議だなあ。runキュー存在確率が100%で、ランキュー長が3なら、もう少し
全体のCPU使用率が高くてもよいはず。

>http://docs.oracle.com/cd/E19455-01/806-2718/spmonitor-26845/index.html
>
>
>M3000 の方は健全(ちょいきつですが・・・
>
>runq-sz %runocc swpq-sz %swpocc
>    1.5      83     0.0       0 日中ピーク
>    1.2      43     0.0       0 1日平均(平日)
>
>> netstat -p
>> ぐらいですかねえ。
>
>これは ARP と NDP のテーブル表示では・・・

すみません。netstat -sでした。TCPの統計情報で、
tcpInUnorderSegs とか tcpRetransSegs とか tcpListenDrop
でパケット落ちの状態を確認したいです。増えてますかね?

村山

>L3 越しですからそんなに無いですよ。
>
>
>値は Global の奴です。
>Zone でも sar とか取ったほうがいいんですかね?
>メモリ上限位しかキャップしてないので、今のところは不要だと
>考えています。(F の資料に CPU キャップは推奨しないとあった
>
>(2013/12/02 23:26), Masa Murayama wrote:
>> ども、村山と申します。
>> 
>> 一般論ですが、見てみたいのは、1秒周期で高負荷時の
>> 
>> 割り込み処理の負荷状態
>>   mpstat, intrstat
>> 
>> CPU使用率など
>>   vmstat
>> 
>> 平均ランキュー長
>>   sar -q 
>> 
>> tcpパケットの送受信のレートとパケット落ちの状況
>> netstat -p
>> ぐらいですかねえ。
>> 
>> ----- Original Message -----
>>> Date: Mon, 02 Dec 2013 23:01:13 +0900
>>> From: "master @ zio-matrix.net" <master @ zio-matrix.net>
>>> To: users @ opensolaris.gr.jp
>>> Subject: [Users] SPARC T4 チューンについて
>>>
>>>
>>> 難波です。
>>>
>>>
>>> M3000 から 置き換えを進めているのですが、
>>> T4-1 で IPC 性能が今一つで困っています。
>>>
>>> クロック、トランジスタ数からはいい勝負を出来そうなものですが、
>>> 意外と伸びなくて悩んでいます。
>>>
>>> M3000 Solaris10 Apache 2.2 mpm_worker mod_proxy
>>> → 1万セッション位で余裕で稼働中
>>>
>>> T4-1 Solaris11(Zone) Apache 2.4 mpm_worker mod_proxy
>>> → 3000セッション位からスローダウン、8000位でスローダウン、
>>>   タイムアウト多発(LA 5-6 程度、メモリ100GB以上余・・・
>>>   netX(igb)インタフェイス直割当、vnic は VRRP
>>>
>>> コンソールなどは重くないので、mpm_worker が旨く扱えていない
>>> のかも?と思ってしまいます。NLWP は 67 位だったかと。
>>>
>>> prefork にして 2000 プロセス位上げてみましたが、上限性能が
>>> 落ちただけでした。
>>>
>>>
>>> mpm_event はそもそも configure で拒否されてしまいます。
>>> checking which MPM to use by default... event
>>> configure: error: MPM event is not supported on this platform.
>>>
>>>
>>>
>>> http://docs.oracle.com/cd/E35841_01/html/E29606/highipc.html
>>>
>>> IPC の最大化 (max-ipc) これは LDOM だけらしいです。
>>>
>>>
>>> https://blogs.oracle.com/observatory/entry/critical_threads_optimization
>>>
>>> If you want to vary the throughput versus ipc for this pool, simply
>>> offline some number of the cpus in the pool using psradm(1m) in the
>>> global zone. This must be scripted as well, as cpu online/offline
>>> settings are not persistent across reboot.
>>>
>>> 相変わらず、IPC 上げる=psradm でコアのスレッドを1にする なんで
>>> しょうかね?
>>>
>>>
>>> また HAProxy 先生を呼ばないといけない予感。
>>>
>>> _______________________________________________
>>> Users mailing list
>>> Users @ opensolaris.gr.jp
>>> https://mx.opensolaris.gr.jp/mailman/listinfo/users
>> 
>
>
>_______________________________________________
>Users mailing list
>Users @ opensolaris.gr.jp
>https://mx.opensolaris.gr.jp/mailman/listinfo/users



Users メーリングリストの案内