SUN x4600 SAS Disks zu langsam?

hallo zusammen,

ich betreibe eine SUN x4600 mit 8 Prozessoren, 64GM RAM und 2 146GB SAS Harddisks im RAID1 Verbund am internen Contoller.

Irgendwie haben wir den Eindruck, das das nicht wirklich schnell ist und haben uns mal per iostat die Disk Auslastung angesehen. Hier zeigt sich meines erachtens der Flaschenhals:

dbserver:~ # iostat -xtc 5 200
extended device statistics tty cpu
device r/s w/s kr/s kw/s wait actv svc_t %w %b tin tout us sy wt id
sd0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0 0 0 6 1 1 0 98
sd1 1.2 76.3 154.3 4266.3 1.3 5.4 86.1 1 100
sd2 1.0 0.9 14.7 2.6 0.0 0.0 14.5 0 1

die 100% Busy und die nur 4266 kbytes Write (in der zeile sd1) erschrecken mich.

Wo/wie kann ich suchen, woran das liegt und was kann ich ggf. optimieren?

Vielen Dank
Stefan

Hi Stefan

Ein ganz weites Feld

Was läuft da sonst? OS?
Was sagt „SAR“? vmstat? Top?

Mehr Input :smile:

Hi Andreas,

eigentlich sind es 4 Platten zu je 2 mal RAID 1
Solaris 10 läuft auf dem ersten, die Datenbank auf dem 2. Raid.

Den iostat habe ich gezogen als nichts ausser der mysqld lief und ein Import eine 300000 Zeilen SQL Files statt fand.

Ausser der terminal Session und dem, was Solaris so mitlaufen lässt, war da nichts zu dem Zeitpunkt. Auch kein apache o.ä.

top zeigte 6% beim mysqld … der wartete wohl auch auf die Disk !?!

Mount:
/DB on /dev/dsk/c1t2d0s1 read/write/setuid/devices/intr/largefiles/logging/xattr/noatime/onerror=panic/dev=7c0041 on Thu Jun 23 10:57:32 2011

Auf das /DB greift nur die DB zu… daliegen nur ca. 30 Files plus was mysql mitbringt.

sar bringt
16:08:54 device %busy avque r+w/s blks/s avwait avserv
16:08:59 sd0 0 0.0 0 0 0.0 0.0
sd1 76 0.9 118 13906 0.0 7.8
sd1,b 76 0.9 118 13906 0.0 7.8

vmstat:

kthr memory page disk faults cpu
r b w swap free re mf pi po fr de sr s0 s1 s2 – in sy cs us sy id
0 0 0 28622376 10888816 87 1395 91 0 0 0 8 -0 60 2 0 2946 6340 3846 0 1 99

Bis auf die Disk Werte sieht das für mich alles OK aus…

Hallo Stefan,

es passt nicht, dass nur eine der Platten 4266 kw/s aufzeigt bei einem RAID 1 Verbund. Außerdem meine ich nicht 100% busy zu sehen, sondern 100% idle… Dafür ist die sd2 zu 99% busy. Ist der Spiegel zwischen sd1 und 2? Oder handelt es sich um ein Hardwareraid (über den Controller gebaut), welches sich zum Betriebssystem hin nur als eine Platte darstellt? Welchen Controller habt ihr verbaut?

Trenne doch mal den Spiegel auf und teste beide Platten separat auf maximalen Durchsatz. Ansonsten Ticket bei Oracle aufmachen…

Gruß
Dennis

Hallo Denis,

danke Dir.
Das OS sieht nur 2 Platten, da es 2 mal 2 Disks per HW Raid 1 am internen LSI Controller sind. Alles SUN… bis ins letzte silizium Atom.

Das ist schon richtig mit den 100%.
Die Werte zu „tin tout us sy wt id“ waren in dem Schuß nicht gefüllt.

Ich glaube, das wird bei Oracle landen.

Gruß Stefan

Hi,

ich sehe da in der Hauptsache Writes, aber keine waits. Mach mal über eine längere Zeit

vmstat 1

während der SQL-Import läuft.

Bin mir nicht sicher, aber auch für Sol10 sollte

  • mysqltuner
  • tuningprimer.sh
    verfügbar sein. Laß die mal laufen, vielleicht solltest Du einfach mal die my.cnf anpassen. 64 GB RAm ist einiges, da sollte man auch die entsprechenden mysql-Startparameter für einstellen.

Waits sieht man sehr schön bei

  • top (htop, gibt es das für Sol10?)
  • vmstat (system)
  • sar -d 100 (100 Sekunden Beobachtung)

kannst Du da etwas erkennen?

servus,

ich habe bei solaris die erfahrung gemacht,
dass %b nicht besonders ernst zu nehmen ist,
die kw/s natürlich schon.

wie schreibtn ihr die daten auf die platte?
cp / mkfile / dd / …?

ihr verwendet ufs als filesystem? nehm ich an?
oder zfs?

z.b. mit einem „dd if=/dev/random …“ ist
der flaschenhals eher die cpu (nicht die platte).

für benchmarks hab ich mal bonnie+±1.03d
verwendet, weil der macht verschiedenstes.

wenn ich auf dein system käm, tät ich erstmal
prtdiag -v
prtconf
iostat -En
raidctl -l …
metastat (bei deinem hardware-raid wohl sinnfrei?)
…anschauen… mit „echo $?“ danach.
kannste den output von denen mitteilen?

mit hardware-raids hab ich leider keine erfahrung,
weil wir grundsätzlich software-raids haben.

grüße
people