コンテンツにスキップ

タスクプレイブック

22 セルを詳細化(v9)。各セルが目的/前提/手順/検証/rollback の構造で、関連する 08-config-procedures / 09-incident-procedures / 11-special-features への直接リンクを含みます。

マトリクス: 習熟度(入門/中級/上級)× シーン(構築/日常運用/バックアップ/障害対応/性能/マイグレ/セキュリティ/スケーリング)

マトリクス(クリックで該当セクションへ)

習熟度\シーン 構築 日常運用 バックアップ 障害対応 性能 マイグレ セキュリティ スケーリング
入門 OS インストール → ホスト名/IP/DNS/N errpt / df 定期チェック、syslog mksysb で月次 rootvg バックアップ boot 失敗・ログイン不可・FS full の三 topas / vmstat / iostat の ユーザ追加とパスワードポリシー、SSH 鍵配置
中級 VG/LV 設計、JFS2 FS 配置、rootv errnotify でメール通知、cron 自動化 mksysb + savevg、NIM image 性能低下切り分け、NFS stale、core 解 TCP バッファ・MPIO queue_depth AIX 7.x → 7.3.4 マイグレ(prem errnotify 監査連動、syslog 集中転 FS 拡張、PV 追加、新規 VG 作成
上級 NIM サーバ、CAA リポジトリ、PowerHA snap でサポート用情報定期取得、性能ベースライ NIM 連携の bootable mksysb、別 kdb / dbx でカーネル / プロセスダンプ ASO/DSO 利用、large page 適用、 Live Kernel Update、Live L RBAC 設計、Trusted Execution DLPAR でリソース動的増減、LPM で別物理機

空セル

入門 × マイグレ、入門 × スケーリング は意図的に空(中級以降推奨)。


入門 × 構築: OS インストール → ホスト名/IP/DNS/NTP の基本設定

目的: 新規 LPAR を業務利用可能な最低限の状態まで構築する。

前提:

  • PowerVM HMC で LPAR 作成済(CPU/メモリ/I/O 割当て)
  • AIX 7.3 インストールメディア(DVD or NIM サーバ)アクセス可能
  • 命名・IP 設計済み

手順:

  1. インストール媒体から boot
  2. HMC で LPAR を起動、SMS メニューで boot device 選択
  3. インストーラの「Default Install」または「Custom Install」を選択

  4. 基本ロケール・タイムゾーン設定

  5. ロケール: ja_JP.UTF-8(または C)
  6. タイムゾーン: JST-9(日本時間)

  7. インストール完了後の root ログイン

  8. 初回ログイン時にパスワード設定要求

  9. ホスト名・IP 設定

  10. chdev -l inet0 -a hostname=my-server.example.com
  11. chdev -l en0 -a netaddr=192.168.10.10 -a netmask=255.255.255.0
  12. 詳細: cfg-hostname-ip

  13. DNS リゾルバ設定

  14. vi /etc/resolv.conf(domain / search / nameserver 行追加)
  15. 詳細: cfg-dns

  16. NTP 時刻同期

  17. vi /etc/ntp.conf(server 行追加)
  18. startsrc -s xntpd
  19. chrctcp -S -a xntpd
  20. 詳細: cfg-ntp

検証:

  • hostname で新ホスト名が返る
  • ifconfig en0 で新 IP 表示
  • nslookup www.ibm.com で DNS 解決成功
  • lssrc -ls xntpd で synchronised 表示

rollback: 再 install または mksysb から restore。個別設定は各 cfg-* 手順の rollback 参照。

関連: cfg-hostname-ip, cfg-dns, cfg-ntp


入門 × 日常運用: errpt / df 定期チェック、syslog 設定

目的: 新人 AIX 管理者の日課 — エラー監視と容量監視。

前提:

  • root 権限でログイン可能
  • errpt サブシステム稼働(既定で起動)

手順:

  1. 朝の errpt チェック
  2. errpt | head -20(最新 20 件)
  3. errpt -d H | head (ハードウェアエラーのみ)
  4. 新規ハードエラーがあれば inc-errpt-hardware-error の手順へ

  5. df で容量チェック

  6. df -g(GB 単位で全 FS 表示)
  7. %Used 80% 超 → 容量対応検討
  8. %Used 95% 超 → 緊急対応(cfg-fs-extend)

  9. syslog 出力確認

  10. tail /var/log/messages(直近のシステムログ)
  11. 異常メッセージがあれば原因調査

  12. syslog 設定の一覧

  13. cat /etc/syslog.conf
  14. 詳細設定: cfg-syslog

  15. プロセス確認

  16. ps -ef | head -20
  17. topas(リアルタイム監視)

  18. errpt 古いログのクリア(月次)

  19. errclear 30(30 日より古いログを削除)

検証:

  • errpt の新規ハードエラー件数を毎日記録
  • df -g の使用率推移を週次レポート
  • /var/log/messages サイズが想定範囲

rollback: 監視作業に rollback はない。誤って errclear した場合は restore 困難(バックアップから復元のみ)。

関連: cfg-syslog, inc-fs-full, inc-errpt-hardware-error


入門 × バックアップ: mksysb で月次 rootvg バックアップ

目的: DR 対策の最低限 — rootvg の bootable バックアップを定期取得。

前提:

  • root 権限
  • 保管先 FS(/backup 等)に rootvg 容量以上の空き

手順:

  1. 保管先空き確認
  2. df -g /backup
  3. rootvg 実使用量の 1.5 倍以上推奨

  4. mksysb 実行

  5. mksysb -i -X -e /backup/$(hostname)_$(date +%Y%m%d).mksysb
  6. 数十分〜数時間(データ量による)

  7. 完了確認

  8. 出力末尾: 0512-038 mksysb: Backup Completed Successfully.
  9. ls -lh /backup/*.mksysb | tail

  10. md5sum 取得

  11. md5sum /backup/$(hostname)_$(date +%Y%m%d).mksysb > /backup/$(hostname)_$(date +%Y%m%d).md5

  12. 古いバックアップ削除(世代管理)

  13. 直近 3 世代保持、それ以前は削除:
  14. find /backup -name "*.mksysb" -mtime +90 -delete

  15. 詳細手順: cfg-mksysb-backup

検証:

  • ファイルサイズが妥当(数 GB〜数十 GB)
  • restore -Tqf <mksysb> で目次表示成功
  • md5sum 値を別保管先と照合

rollback: 取得 mksysb の削除のみ(取得自体に rollback なし)。

関連: cfg-mksysb-backup


入門 × 障害対応: boot 失敗・ログイン不可・FS full の三大障害

目的: AIX 管理者が最初に覚える 3 つの基本障害対応。

前提:

  • root 権限(または別 root ユーザでアクセス可能)
  • コンソール接続手段(HMC、シリアル等)

手順:

  1. boot 失敗(LED hang)
  2. HMC のオペレータパネルで LED コード記録
  3. SMS メニュー進入 → boot device 確認
  4. サービスモード boot → bosboot 再作成
  5. 詳細: inc-boot-fail-led

  6. ログイン不可(user is locked)

  7. 別 root セッションから:
  8. lsuser -a unsuccessful_login_count account_locked alice
  9. chsec -f /etc/security/lastlog -a unsuccessful_login_count=0 -s alice
  10. chuser account_locked=false alice
  11. 詳細: inc-login-locked

  12. FS 100%(disk full)

  13. df -g | sort -k5 -r | head で対象 FS 特定
  14. 不要ファイル削除 or chfs -a size=+1G /var で拡張
  15. 詳細: inc-fs-full

  16. 発生時の対応原則

  17. 慌てない(観察 → 仮説 → 対処)
  18. 操作内容を全て記録(後の報告書用)
  19. 不明な場合は IBM サポートに先に相談

検証:

  • それぞれの個別手順の検証セクション参照

rollback: 個別手順の rollback セクション参照。

関連: inc-boot-fail-led, inc-login-locked, inc-fs-full


入門 × 性能: topas / vmstat / iostat の読み方

目的: 性能監視の基本コマンド 3 つを使えるようになる。

前提:

  • root 権限(一般ユーザでも実行可能だが詳細情報には root 必要)

手順:

  1. topas でリアルタイム概観
  2. topas(5 秒間隔で更新)
  3. 画面の見方:
    • 上部: CPU, Memory, Network, Disk のサマリ
    • 中部: Network/Disk 統計
    • 下部: プロセス一覧(CPU% 順)
  4. q で終了

  5. vmstat で時系列観測

  6. vmstat 5 12(5 秒ごとに 12 回)
  7. 重要列:

    • r = 実行待ちプロセス数(Runqueue)
    • b = ブロック中プロセス数
    • avm = active virtual memory
    • fre = free pages
    • pi/po = page in/out(paging 発生指標)
    • us/sy/id/wa = User/Kernel/Idle/Wait CPU%
  8. iostat でディスク I/O

  9. iostat 5 6(5 秒ごとに 6 回)
  10. 重要列:

    • %tm_act = ディスクビジー率(80% 超で飽和)
    • tps = transactions per second
    • Kbps = throughput
  11. 記録(後で参照する)

  12. nmon -f -s 60 -c 30 -m /tmp で 60 秒×30 = 30 分記録
  13. .nmon ファイルを Excel で開ける

  14. 詳細解析: inc-perf-degradation

検証:

  • topas で平常時の値をメモ(ベースライン)
  • vmstat の wa が常時 30%+ なら I/O ボトルネック疑い
  • iostat の %tm_act が 80%+ 継続なら ディスク飽和

rollback: 監視作業に rollback なし。

関連: inc-perf-degradation


入門 × セキュリティ: ユーザ追加とパスワードポリシー、SSH 鍵配置

目的: セキュリティ運用の基本 — ユーザ管理と SSH 鍵認証。

前提:

  • root 権限
  • 新規ユーザ情報(名前、UID、グループ)

手順:

  1. 新規ユーザ追加
  2. mkuser id=2001 home=/home/alice shell=/usr/bin/ksh alice
  3. 詳細: cfg-user-add

  4. 初期パスワード設定

  5. passwd alice
  6. pwdadm -f ADMCHG alice(次回ログイン時に変更強制)

  7. パスワードポリシー設定

  8. chuser maxage=12 minlen=12 minother=2 alice
  9. 全ユーザ default に: chsec -f /etc/security/user -a minlen=12 -s default

  10. SSH 鍵配置(鍵認証)

  11. alice の home に .ssh/ 作成: mkdir -p /home/alice/.ssh; chmod 700 /home/alice/.ssh
  12. 公開鍵を /home/alice/.ssh/authorized_keys に追加
  13. 所有権・権限: chown -R alice:staff /home/alice/.ssh; chmod 600 /home/alice/.ssh/authorized_keys

  14. /etc/ssh/sshd_config 確認(パスワード認証無効化する場合)

  15. PasswordAuthentication no
  16. refresh -s sshd

  17. ロック解除(試行回数超のとき)

  18. 詳細: cfg-passwd-policy

検証:

  • alice で ssh ログイン成功
  • 鍵認証が効いている(パスワード入力なしで接続)
  • lsuser -a maxage minlen alice でポリシー反映

rollback: rmuser -p alice でユーザ削除、rm -rf /home/alice で home 削除。

関連: cfg-user-add, cfg-passwd-policy


中級 × 構築: VG/LV 設計、JFS2 FS 配置、rootvg ミラー化

目的: 業務系 LPAR の本格構築 — ストレージ設計と冗長化。

前提:

  • root 権限
  • 新規 PV(または extendvg 用)
  • 業務要件に基づく FS 設計(容量・配置)

手順:

  1. 新規 VG 設計と作成
  2. 業務隔離するため datavg を新規作成
  3. mkvg -S -y datavg -s 64 hdisk1(scalable VG、PP=64MB)
  4. 詳細: cfg-vg-lv

  5. 業務 LV と FS の作成

  6. DB データ用: mklv -y dblv -t jfs2 datavg 1000(64GB)
  7. DB ログ用: mklv -y dbloglv -t jfs2 datavg 200(12.8GB)
  8. crfs -v jfs2 -d dblv -m /db -A yes -p rw -a logname=INLINE

  9. rootvg ミラー化

  10. 未使用 PV(hdisk1)を rootvg に追加
  11. extendvg rootvg hdisk1
  12. mirrorvg -S rootvg hdisk1(同期モード、数十分〜)
  13. bosboot -ad /dev/hdisk0; bosboot -ad /dev/hdisk1
  14. bootlist -m normal hdisk0 hdisk1
  15. 詳細: cfg-rootvg-mirror

  16. MPIO 属性確認

  17. lsattr -El hdiskN -a reserve_policy -a algorithm -a queue_depth
  18. HA/LPM 環境なら reserve_policy=no_reserve 必須
  19. 詳細: cfg-mpio-tuning

  20. FS マウント自動化

  21. chfs -A yes /db(boot 時自動マウント)
  22. mount で確認

検証:

  • lsvg datavg で active、lsvg -l rootvg で全 LV が PPs=LPs*2
  • mount で全 FS マウント済
  • bootlist -m normal -o で hdisk0 hdisk1 両方表示

rollback: 個別手順の rollback セクション参照。VG 削除は varyoffvgexportvg

関連: cfg-vg-lv, cfg-rootvg-mirror, cfg-mpio-tuning


中級 × 日常運用: errnotify でメール通知、cron 自動化、パッケージ更新管理

目的: 監視・通知の自動化と、パッケージ更新の管理ルーチン化。

前提:

  • root 権限
  • メールサーバ疎通可能
  • cron デーモン稼働

手順:

  1. errnotify でメール通知設定
  2. ハードエラー(Class=H)発生時に admin@example.com へ通知
  3. 詳細: cfg-errnotify

  4. cron で定期ジョブ登録

  5. crontab -e で編集:

    # 朝 9 時に df 結果をメール
    0 9 * * * df -g | mailx -s "AIX df $(hostname)" admin@example.com
    # 月初に errclear
    0 0 1 * * /usr/bin/errclear 30
    # 週次 mksysb
    0 2 * * 0 /usr/bin/mksysb -i -X /backup/$(hostname)_$(date +%Y%m%d).mksysb
    

  6. パッケージ更新管理

  7. 月次で oslevel -s 確認、新 SP リリース確認
  8. 適用前に必ず mksysb 取得
  9. preview 実行: installp -p -aXd <source> all
  10. 本適用: installp -aXY -d <source> all
  11. 詳細: cfg-package-install

  12. トラブル時の対応

  13. メール送信失敗 → inc-mail-fail
  14. cron ジョブ実行されず → inc-cron-fail

検証:

  • メール通知のテスト(疑似 errlogger イベント)
  • /var/adm/cron/log で cron 実行記録
  • lslpp -L で適用済 fileset 確認

rollback: 個別手順の rollback セクション参照。

関連: cfg-errnotify, cfg-package-install, inc-cron-fail


中級 × バックアップ: mksysb + savevg、NIM image 連携

目的: rootvg + 非 rootvg 両方のバックアップを取り、NIM 経由でリストア可能にする。

前提:

  • root 権限
  • NIM サーバ稼働
  • 保管先 FS の十分な空き

手順:

  1. rootvg バックアップ
  2. mksysb -i -X -e /backup/$(hostname)_rootvg_$(date +%Y%m%d).mksysb
  3. 詳細: cfg-mksysb-backup

  4. datavg バックアップ

  5. savevg -if /backup/$(hostname)_datavg_$(date +%Y%m%d).savevg datavg
  6. rootvg と違い bootable ではないが、データ復旧は可能

  7. NIM resource として登録

  8. NIM サーバ側で:
    nim -o define -t mksysb -a server=master \
        -a location=/backup/myhost_rootvg.mksysb \
        myhost_mksysb_$(date +%Y%m%d)
    
  9. 確認: lsnim -t mksysb

  10. クライアント定義

  11. NIM サーバ側で対象 LPAR を NIM client として登録
  12. nim -o define -t standalone -a platform=chrp ...

  13. bootable restore のテスト(DR 演習)

  14. HMC で別 LPAR を network boot
  15. NIM 経由で nim -o bos_inst -a source=mksysb ...
  16. restore 成功確認

  17. 保管期間管理

  18. 直近 3 世代の rootvg/datavg バックアップを保持
  19. find /backup -name "*.mksysb" -mtime +90 -delete

検証:

  • ファイルサイズと md5sum 整合性
  • DR 演習で別 LPAR への restore 成功
  • NIM resource list に登録済

rollback: バックアップファイルの削除のみ。

関連: cfg-mksysb-backup


中級 × 障害対応: 性能低下切り分け、NFS stale、core 解析

目的: 中級レベルの障害切り分け — 複数仮説を立てて検証する手法。

前提:

  • 性能基準値(ベースライン)取得済み
  • dbx / truss が使える

手順:

  1. 性能低下の切り分け
  2. topas で CPU/Mem/Disk/Net の利用率を観察
  3. vmstat / iostat / netstat で詳細統計
  4. svmon -G でメモリ詳細
  5. 詳細: inc-perf-degradation
  6. 特集: feature-02-perf-investigation

  7. NFS stale 解消

  8. ls /mnt/nfsdataStale NFS file handle エラー
  9. fuser -cuk /mnt/nfsdata で使用プロセス確認
  10. umount -f /mnt/nfsdatamount /mnt/nfsdata
  11. 詳細: inc-nfs-stale

  12. core dump 解析

  13. file <core> で生成プロセス確認
  14. dbx <executable> <core> で起動
  15. where でスタックトレース表示
  16. 詳細: inc-core-dump

  17. 記録と報告

  18. 切り分けの過程・仮説・検証結果を記録
  19. 報告書作成(before/after 比較表)

検証:

  • 性能ベースラインに復帰
  • NFS マウントが通常動作
  • core dump の真因特定(dbx の where 出力)

rollback: 個別手順の rollback セクション参照。

関連: inc-perf-degradation, inc-nfs-stale, inc-core-dump


中級 × 性能: TCP バッファ・MPIO queue_depth・j2_inodeCacheSize 調整

目的: tunable 調整による性能改善。

前提:

  • root 権限
  • ベースライン値取得済み
  • 業務影響を測定する手段(ツール)

手順:

  1. TCP 送受信バッファ拡大
  2. 高遅延 WAN や 10GbE 環境で効果
  3. no -p -o sb_max=4194304
  4. no -p -o tcp_sendspace=1048576
  5. no -p -o tcp_recvspace=1048576
  6. 詳細: cfg-tcp-buffers

  7. MPIO queue_depth 拡大

  8. DS8000 環境で chdev -l hdiskN -a queue_depth=64 -U
  9. 詳細: cfg-mpio-tuning

  10. j2_inodeCacheSize 調整

  11. ioo -p -o j2_inodeCacheSize=400 -o j2_metadataCacheSize=400
  12. 詳細: cfg-ioo-tuning

  13. 効果測定

  14. ベースラインと比較(topas / vmstat / iostat / netperf)
  15. 変更前後のスナップショット比較

  16. 業務影響確認

  17. アプリのレスポンスタイム測定
  18. スループット測定
  19. エラー率確認

検証:

  • tunable が CUR/BOOT に反映(ioo -L 等)
  • 性能指標の改善(実測値)
  • errpt にエラー新規発生なし

rollback: 各 tunable を -d オプションで既定値に戻す。

関連: cfg-tcp-buffers, cfg-mpio-tuning, cfg-ioo-tuning


中級 × マイグレ: AIX 7.x → 7.3.4 マイグレ(premigration script、廃止 fileset)

目的: 旧 AIX バージョンから 7.3.4 への in-place マイグレーション。

前提:

  • 現状 AIX バージョン確認(7.1 / 7.2 / 7.3.x)
  • マイグレ前 mksysb 取得済
  • 業務停止時間の調整済

手順:

  1. premigration script 実行
  2. 旧版上で /usr/lpp/bos/premig_chk 実行
  3. チェック結果に従い廃止 fileset 削除等の準備

  4. 廃止 fileset の事前削除

  5. installp -u rsct.vsd (VSD は AIX 7.3 で廃止)
  6. installp -u rsct.lapi.rte (LAPI は AIX 7.3 で廃止)
  7. installp -u powersc.ts (PowerSC Trusted Surveyor、WPAR 含めて)

  8. hd5 容量確保

  9. hd5 ≥ 40MB、ディスク先頭 4GB 内の連続 PP
  10. 不足なら LV 移動で連続領域確保

  11. base media または NIM でマイグレーション開始

  12. SMS で boot device 選択
  13. インストーラで Migration Install を選択
  14. bos.dsc fileset を最初に installp(base media 利用時)

  15. 個別問題への対処

  16. Java 8 32bit SR6FP35 ロード不能 → SR6FP30 強制降格
  17. bos.net.tcp.sendmail libcrypto エラー → update_all で 7.3.3+ へ進める

  18. post-migration 確認

  19. oslevel -s
  20. lppchk -v
  21. 業務動作確認

検証:

  • oslevel -s で 7300-04-XX-XXXX
  • lppchk -v で整合エラーなし
  • 業務アプリ動作確認

rollback: premigration 段階なら旧設定で続行。マイグレ実行後は mksysb から restore のみ。

関連: cfg-package-install, cfg-mksysb-backup, feature-03-patch-apply


中級 × セキュリティ: errnotify 監査連動、syslog 集中転送、LDAP クライアント

目的: セキュリティ監視の集約化と、認証基盤統合。

前提:

  • root 権限
  • 集中ログサーバ稼働
  • LDAP サーバ(AD or ISVD 等)

手順:

  1. errnotify を監査ログに連動
  2. errnotify で USER_LOCKED 等のセキュリティイベントを集中ログサーバへ転送
  3. 詳細: cfg-errnotify

  4. syslog 集中転送

  5. /etc/syslog.conf*.info @logserver.example.com
  6. refresh -s syslogd
  7. 詳細: cfg-syslog

  8. LDAP クライアント設定

  9. bos.net.tcp.client を含む base fileset インストール済確認
  10. /etc/security/ldap/ldap.cfg 編集(LDAP サーバ IP、bind DN 等)
  11. mksecldap -c -h ldap-srv.example.com -a cn=admin,dc=example,dc=com -p adminpass
  12. start-secldapclntd
  13. lsuser -R LDAP <ldap-user> で確認

  14. AD/LDAP 連携時の追加設定

  15. TL3 SP1 で defaulthomedirectory / pwdalgorithm / defaultloginshell 拡張あり
  16. これらフィールドを ldap.cfg に追加

検証:

  • errpt 重要イベントが集中ログサーバで受信
  • /var/log/messages 相当のログがサーバ側で受信
  • LDAP ユーザでログイン成功

rollback: 個別手順の rollback セクション参照。LDAP 連携は stop-secldapclntd で停止可。

関連: cfg-errnotify, cfg-syslog


中級 × スケーリング: FS 拡張、PV 追加、新規 VG 作成

目的: 業務拡大に伴うストレージ追加と容量拡張。

前提:

  • ストレージ管理者から新 LUN 払い出し済
  • 業務影響が許容される時間帯

手順:

  1. 新規 PV の認識
  2. cfgmgr -v で新 hdisk 認識
  3. lspv で hdisk2 等が現れる
  4. PVID 付与: chdev -l hdisk2 -a pv=yes
  5. 詳細: cfg-disk-add

  6. 既存 VG への追加

  7. extendvg datavg hdisk2
  8. lsvg datavg で TOTAL PVs 増加確認

  9. 新規 VG の作成

  10. 業務隔離する場合は別 VG:
  11. mkvg -S -y newvg -s 64 hdisk3
  12. 詳細: cfg-vg-lv

  13. FS 拡張

  14. chfs -a size=+5G /var
  15. 詳細: cfg-fs-extend

  16. 特集記事: feature-01-disk-to-fs

検証:

  • lspv に新 PV、active
  • lsvg <vg> で TOTAL PPs 増加
  • df -g <fs> で容量増加

rollback: 個別手順の rollback セクション参照。

関連: cfg-disk-add, cfg-vg-lv, cfg-fs-extend


上級 × 構築: NIM サーバ、CAA リポジトリ、PowerHA 連携、暗号化 rootvg

目的: 高可用・大規模環境の基盤構築 — 上級者向けの専門手順群。

前提:

  • root 権限
  • PowerVM 仮想化環境
  • ストレージ・ネットワーク・HA に関する設計知識

手順:

  1. NIM サーバ構築
  2. bos.sysmgt.nim.master fileset 導入
  3. LPP_SOURCE 作成(base media + 必要 update を統合)
  4. SPOT 作成(ramdisk/カーネルイメージ)
  5. クライアント定義
  6. nim -o define -t standalone -a platform=chrp ...

  7. CAA リポジトリ構築

  8. 共有ディスクを確保(NVMe ディスクは TL3 から対応)
  9. mkcluster -n mycluster -m node1,node2 -r hdisk_repos
  10. RSCT 3.3.0.0 稼働確認

  11. PowerHA 連携

  12. PowerHA SystemMirror インストール
  13. service IP / boot IP / persistent IP 設計
  14. リソースグループ定義

  15. PKS による rootvg 暗号化

  16. 新規/上書き install 時 BOS install メニューで暗号化対象 LV 選択
  17. pksctl で初期化
  18. hdcryptmgr で運用管理

  19. 詳細手順

  20. 本サイトの 08-config-procedures では概要のみ。詳細は IBM Redbooks / 公式マニュアル参照。

検証:

  • NIM 経由で別 LPAR に AIX install 成功
  • CAA cluster: lscluster -m で全ノード active
  • PowerHA: clRGinfo でリソースグループ稼働

rollback: 個別手順は環境依存。原則として事前バックアップから restore。

関連: cfg-mksysb-backup, feature-03-patch-apply


上級 × 日常運用: snap でサポート用情報定期取得、性能ベースライン取得(nmon)

目的: 上級運用の日課 — IBM サポート対応とトレンド分析の準備。

前提:

  • /tmp /var/adm/ras に十分な空き
  • 性能ツール(nmon analyser 等)使用可能

手順:

  1. 月次 snap 取得
  2. snap -r で旧データクリア
  3. snap -ac で全情報取得
  4. /tmp/ibmsupt/snap.pax.gz を IBM ECurep アップロード(PMR がある場合)
  5. 詳細: inc-snap-collect

  6. 性能ベースライン取得

  7. 平日代表時間帯(朝 9:00-11:00、午後 14:00-16:00 等)に nmon 記録
  8. nmon -f -s 60 -c 60 -m /var/adm/perf -F baseline_$(hostname)_$(date +%Y%m%d).nmon
  9. .nmon ファイルを Excel + nmon analyser で可視化

  10. ベースライン値の記録

  11. CPU%, Memory%, Disk Busy%, Network throughput を月次記録
  12. 増加トレンドがあれば容量計画に反映

  13. トラブル時の比較材料

  14. 性能劣化発生時にベースラインと比較
  15. 詳細: feature-02-perf-investigation

検証:

  • snap.pax.gz が定期生成(ファイルサイズ妥当)
  • nmon ベースラインファイルが月次蓄積
  • ベースライン値の月次変動を把握

rollback: snap データ削除のみ。

関連: inc-snap-collect, feature-02-perf-investigation


上級 × バックアップ: NIM 連携の bootable mksysb、別 LPAR への restore リハーサル

目的: DR 演習による実証 — mksysb から bootable restore できることを毎月確認。

前提:

  • NIM サーバ稼働
  • DR 用予備 LPAR 確保
  • 業務影響最小限の時間帯

手順:

  1. mksysb 取得(本番)
  2. 詳細: cfg-mksysb-backup

  3. NIM resource として登録

  4. NIM サーバ側で:
  5. nim -o define -t mksysb -a server=master -a location=... mksysb_resource_$(date +%Y%m%d)

  6. DR LPAR を NIM 経由 bos_inst

  7. HMC で予備 LPAR を network boot
  8. NIM サーバから nim -o bos_inst -a source=mksysb ... 実行
  9. restore 完了まで数十分

  10. restore 後の動作確認

  11. OS 起動成功
  12. hostname、IP が mksysb 取得時のものに復元
  13. アプリ起動確認

  14. DR 演習レポート

  15. 取得→復元→起動までの所要時間記録
  16. 失敗時の対処手順を更新

検証:

  • 予備 LPAR で OS 起動成功
  • 業務アプリ起動・動作確認
  • RTO(復旧目標時間)達成確認

rollback: 予備 LPAR を削除(HMC で)。

関連: cfg-mksysb-backup, feature-03-patch-apply


上級 × 障害対応: kdb / dbx でカーネル / プロセスダンプ解析、HMC SRC コード解析

目的: 上級レベルの障害解析 — カーネルダンプとハードウェア診断。

前提:

  • root 権限
  • kdb / dbx の使用経験
  • HMC アクセス権

手順:

  1. カーネルダンプ取得確認
  2. sysdumpdev -l で primary が /dev/dumplv であること
  3. 詳細: cfg-dump-device

  4. kdb でカーネルダンプ解析

  5. kdb /var/adm/ras/vmcore.0
  6. (kdb) status(kdb) stat(kdb) th 等で状態確認
  7. スタックトレース、レジスタ、ロック状態確認

  8. dbx でプロセスダンプ解析

  9. dbx <executable> <core>
  10. 詳細: inc-core-dump

  11. HMC SRC コード解析

  12. HMC オペレータパネルで Service Reference Code (SRC) 確認
  13. 例: BA210000 = メモリ ECC エラー
  14. SRC コード一覧から原因部位特定(IBM Power Systems Service Information)
  15. IBM サポート連絡時に SRC を提示

  16. snap 取得 + IBM サポート提供

  17. snap -ac
  18. 詳細: inc-snap-collect

検証:

  • ダンプから真因特定(スタックトレース等)
  • ハードウェア交換 → errpt に新規エラーなし
  • 業務復旧

rollback: ハードウェア交換は IBM CE 対応。OS 側 rollback はない。

関連: cfg-dump-device, inc-core-dump, inc-errpt-hardware-error, inc-snap-collect


上級 × 性能: ASO/DSO 利用、large page 適用、AIO チューニング、NUMA awareness

目的: 上級性能チューニング — ハードウェア特性を活かした最適化。

前提:

  • 性能ベースライン取得済み
  • ASO/DSO・large page・AIO の概念理解

手順:

  1. ASO/DSO 有効化
  2. Active System Optimizer / Dynamic System Optimizer
  3. lssrc -s aso で状態確認
  4. 起動: startsrc -s aso
  5. 自動最適化(large page、prefetch)

  6. large page(16MB pages)適用

  7. vmo -L lgpg_size -L lgpg_regions
  8. DB 等の大量メモリプロセス向けに事前確保
  9. vmo -p -o lgpg_size=16777216 -o lgpg_regions=N
  10. アプリ起動時に LDR_CNTRL=LARGE_PAGE_DATA=Y で利用

  11. AIO チューニング

  12. aioo -L
  13. DB(Oracle/Db2)等で AIO サーバ数調整
  14. kernel I/O queue 最適化

  15. NUMA awareness

  16. Power10 で NUMA topology が重要
  17. lssrad -av で NUMA 構成確認
  18. WLM や プロセスの NUMA 配置最適化

  19. 計測と効果確認

  20. ベースラインと比較
  21. 詳細: feature-02-perf-investigation

検証:

  • tunable が反映
  • 性能指標の改善
  • errpt にエラー新規発生なし

rollback: 各 tunable を -d で既定値に戻す。large page は再起動必要な場合あり。

関連: cfg-vmo-tuning, feature-02-perf-investigation


上級 × マイグレ: Live Kernel Update、Live Library Update、別 LPAR への nimadm migration

目的: 業務無停止でのカーネル/ライブラリ更新と、別 LPAR への migration。

前提:

  • AIX 7.2 / 7.3 で LKU 対応
  • TL3 で LLU 新規導入
  • NIM サーバ稼働(nimadm 用)

手順:

  1. Live Kernel Update (LKU)
  2. 業務無停止でカーネル更新
  3. 互換性確認(TL/SP)
  4. vi /etc/lvupdate.data(ipsec_auto_migrate=yes 等)
  5. geninstall (LKU mode) または HMC ベース LKU
  6. blackout 時間中、アプリは一時停止
  7. TL3 で性能改善・blackout 短縮

  8. Live Library Update (LLU)

  9. TL3 新規導入
  10. libc 等のライブラリを業務無停止で更新

  11. 別 LPAR への nimadm migration

  12. 並列マイグレ(複数 LPAR を同時に)
  13. PowerVC 連携で nimadm 自動化
  14. TL3 で複数 LPAR 並列マイグレーション対応

  15. 完了確認

  16. oslevel -s で新レベル
  17. lppchk -v で整合性

  18. 特集: feature-03-patch-apply

検証:

  • 業務継続中に oslevel -s が新値
  • lppchk -v で整合性 OK
  • アプリ動作継続確認

rollback: LKU は事前 snapshot から戻し可能。nimadm はソース LPAR を使い続ける選択。

関連: cfg-package-install, cfg-mksysb-backup


上級 × セキュリティ: RBAC 設計、Trusted Execution + CHKSHOBJS、AIX Key Manager (PKS)、IPsec

目的: 上級セキュリティ — fine-grained 権限制御と暗号化機能。

前提:

  • root 権限
  • RBAC 設計経験
  • PKS 鍵管理ポリシー策定済

手順:

  1. RBAC 設計
  2. 業務別 role 定義: mkrole authorizations=aix.network.config.* netadmin
  3. ユーザに role 割当: chuser roles=netadmin alice
  4. swrole で role 切替: swrole netadmin

  5. Domain RBAC(追加機能)

  6. リソースをドメイン別にグループ化
  7. 詳細: AIX 7.3 Security ガイド

  8. Trusted Execution + CHKSHOBJS

  9. Trusted Signature Database(TSD)に実行ファイルハッシュ登録
  10. trustchk -s ON で起動時検証有効化
  11. TL3 SP1 で CHKSHOBJS(共有 .o 検証)追加

  12. AIX Key Manager (PKS)

  13. PKS 初期化: pksctl init
  14. 暗号化 LV 用鍵管理
  15. PowerVM Platform Keystore と連携

  16. IPsec 設定

  17. DH groups 14/19/20/21/24(TL3 で 20/21 追加)
  18. SHA2_512 hash
  19. mkfilt で IPsec フィルタ作成
  20. LKU 時の IPsec 維持: lvupdate.dataipsec_auto_migrate=yes

検証:

  • role 切替後の権限確認
  • trustchk で実行ファイル検証成功
  • PKS 鍵が PowerVM platform keystore に保存

rollback: 個別機能ごとに rollback 手順あり。RBAC は role 削除、TE は trustchk -s OFF。

関連: cfg-user-add, cfg-passwd-policy


上級 × スケーリング: DLPAR でリソース動的増減、LPM で別物理機へ移動、scalable VG(1024 PV)

目的: PowerVM 基盤を活かした動的スケーリング。

前提:

  • PowerVM HMC アクセス
  • scalable VG 設計
  • LPM 用 VIOS 構成

手順:

  1. DLPAR でメモリ追加
  2. HMC でメモリ +XGB を実行
  3. AIX 側で prtconf -m で認識確認
  4. vmo tunable 見直し(minperm/maxperm 等)

  5. DLPAR で CPU 追加

  6. HMC で entitled processor units 増加
  7. AIX 側で lparstat で確認

  8. LPM で別物理機へ移動

  9. 事前条件: reserve_policy=no_reserve(cfg-mpio-tuning
  10. HMC で migration 実行
  11. 数分〜数十分で移動完了
  12. cthags critical resource monitoring に注意

  13. scalable VG で大量 PV

  14. scalable VG(既定 1024 PV / 256 LV / 32768 PP)
  15. 既存の original VG(32 PV 制限)からの拡張は不可、新規 VG として作成

  16. 特集: feature-01-disk-to-fs

検証:

  • DLPAR 後 prtconf -m / lparstat で増加確認
  • LPM 後 hostname/IP 維持
  • scalable VG: lsvg で MAX PVs=1024 表示

rollback: DLPAR は逆操作で減少。LPM は元物理機へ再 LPM。

関連: cfg-vg-lv, cfg-disk-add, cfg-fs-extend, cfg-mpio-tuning