Whamcloud - gitweb
LUDOC-370 snapshots: add snapshot feature documentation
[doc/manual.git] / LustreOperations.xml
index 8fb0ffe..64ddbb4 100644 (file)
-<?xml version="1.0" encoding="UTF-8"?>
-<chapter version="5.0" xml:lang="en-US" xmlns="http://docbook.org/ns/docbook" xmlns:xl="http://www.w3.org/1999/xlink" xml:id='lustreoperations'>
-  <info>
-    <title xml:id='lustreoperations.title'>Lustre Operations</title>
-  </info>
-
-
-  <para><anchor xml:id="dbdoclet.50438194_pgfId-1298785" xreflabel=""/>Once you have the Lustre file system up and running, you can use the procedures in this section to perform these basic Lustre administration tasks:</para>
-  <itemizedlist><listitem>
-      <para><xref linkend="dbdoclet.50438194_42877"/></para>
-    </listitem>
-<listitem>
-      <para><xref linkend="dbdoclet.50438194_24122"/></para>
-    </listitem>
-<listitem>
-      <para><xref linkend="dbdoclet.50438194_84876"/></para>
-    </listitem>
-<listitem>
-      <para><xref linkend="dbdoclet.50438194_69255"/></para>
-    </listitem>
-<listitem>
-      <para><xref linkend="dbdoclet.50438194_57420"/></para>
-    </listitem>
-<listitem>
-      <para><xref linkend="dbdoclet.50438194_54138"/></para>
-    </listitem>
-<listitem>
-      <para><xref linkend="dbdoclet.50438194_88063"/></para>
-    </listitem>
-<listitem>
-      <para><xref linkend="dbdoclet.50438194_88980"/></para>
-    </listitem>
-<listitem>
-      <para><xref linkend="dbdoclet.50438194_41817"/></para>
-    </listitem>
-<listitem>
-      <para><xref linkend="dbdoclet.50438194_70905"/></para>
-    </listitem>
-<listitem>
-      <para><xref linkend="dbdoclet.50438194_16954"/></para>
-    </listitem>
-<listitem>
-      <para><xref linkend="dbdoclet.50438194_69998"/></para>
-    </listitem>
-<listitem>
-      <para><xref linkend="dbdoclet.50438194_30872"/></para>
-    </listitem>
-<listitem>
-      <para> </para>
-    </listitem>
-</itemizedlist>
-    <section xml:id="dbdoclet.50438194_42877">
-      <title>13.1 Mounting by Label</title>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298853" xreflabel=""/>The file system name is limited to 8 characters. We have encoded the file system and target information in the disk label, so you can mount by label. This allows system administrators to move disks around without worrying about issues such as SCSI disk reordering or getting the /dev/device wrong for a shared target. Soon, file system naming will be made as fail-safe as possible. Currently, Linux disk labels are limited to 16 characters. To identify the target within the file system, 8 characters are reserved, leaving 8 characters for the file system name:</para>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298854" xreflabel=""/>&lt;fsname&gt;-MDT0000 or &lt;fsname&gt;-OST0a19</para>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298855" xreflabel=""/>To mount by label, use this command:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1298856" xreflabel=""/>$ mount -t lustre -L &lt;file system label&gt; &lt;mount point&gt;
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298857" xreflabel=""/>This is an example of mount-by-label:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1298858" xreflabel=""/>$ mount -t lustre -L testfs-MDT0000 /mnt/mdt
-</screen>
-              <caution><para>Mount-by-label should NOT be used in a multi-path environment.</para></caution>
-
-       <para><anchor xml:id="dbdoclet.50438194_pgfId-1298860" xreflabel=""/>Although the file system name is internally limited to 8 characters, you can mount the clients at any mount point, so file system users are not subjected to short names. Here is an example:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1298861" xreflabel=""/>mount -t lustre uml1@tcp0:/shortfs /mnt/&lt;long-file_system-name&gt;
+<?xml version='1.0' encoding='utf-8'?>
+<chapter xmlns="http://docbook.org/ns/docbook"
+xmlns:xl="http://www.w3.org/1999/xlink" version="5.0" xml:lang="en-US"
+xml:id="lustreoperations">
+  <title xml:id="lustreoperations.title">Lustre Operations</title>
+  <para>Once you have the Lustre file system up and running, you can use the
+  procedures in this section to perform these basic Lustre administration
+  tasks.</para>
+  <section xml:id="dbdoclet.50438194_42877">
+    <title>
+    <indexterm>
+      <primary>operations</primary>
+    </indexterm>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>mounting by label</secondary>
+    </indexterm>Mounting by Label</title>
+    <para>The file system name is limited to 8 characters. We have encoded the
+    file system and target information in the disk label, so you can mount by
+    label. This allows system administrators to move disks around without
+    worrying about issues such as SCSI disk reordering or getting the 
+    <literal>/dev/device</literal> wrong for a shared target. Soon, file system
+    naming will be made as fail-safe as possible. Currently, Linux disk labels
+    are limited to 16 characters. To identify the target within the file
+    system, 8 characters are reserved, leaving 8 characters for the file system
+    name:</para>
+    <screen>
+<replaceable>fsname</replaceable>-MDT0000 or 
+<replaceable>fsname</replaceable>-OST0a19
+</screen>
+    <para>To mount by label, use this command:</para>
+    <screen>
+mount -t lustre -L 
+<replaceable>file_system_label</replaceable> 
+<replaceable>/mount_point</replaceable>
+</screen>
+    <para>This is an example of mount-by-label:</para>
+    <screen>
+mds# mount -t lustre -L testfs-MDT0000 /mnt/mdt
+</screen>
+    <caution>
+      <para>Mount-by-label should NOT be used in a multi-path environment or
+      when snapshots are being created of the device, since multiple block
+      devices will have the same label.</para>
+    </caution>
+    <para>Although the file system name is internally limited to 8 characters,
+    you can mount the clients at any mount point, so file system users are not
+    subjected to short names. Here is an example:</para>
+    <screen>
+client# mount -t lustre mds0@tcp0:/short 
+<replaceable>/dev/long_mountpoint_name</replaceable>
 </screen>
+  </section>
+  <section xml:id="dbdoclet.50438194_24122">
+    <title>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>starting</secondary>
+    </indexterm>Starting Lustre</title>
+    <para>On the first start of a Lustre file system, the components must be
+    started in the following order:</para>
+    <orderedlist>
+      <listitem>
+        <para>Mount the MGT.</para>
+        <note>
+          <para>If a combined MGT/MDT is present, Lustre will correctly mount
+          the MGT and MDT automatically.</para>
+        </note>
+      </listitem>
+      <listitem>
+        <para>Mount the MDT.</para>
+        <note>
+          <para condition='l24'>Mount all MDTs if multiple MDTs are
+          present.</para>
+        </note>
+      </listitem>
+      <listitem>
+        <para>Mount the OST(s).</para>
+      </listitem>
+      <listitem>
+        <para>Mount the client(s).</para>
+      </listitem>
+    </orderedlist>
+  </section>
+  <section xml:id="dbdoclet.50438194_84876">
+    <title>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>mounting</secondary>
+    </indexterm>Mounting a Server</title>
+    <para>Starting a Lustre server is straightforward and only involves the
+    mount command. Lustre servers can be added to 
+    <literal>/etc/fstab</literal>:</para>
+    <screen>
+mount -t lustre
+</screen>
+    <para>The mount command generates output similar to this:</para>
+    <screen>
+/dev/sda1 on /mnt/test/mdt type lustre (rw)
+/dev/sda2 on /mnt/test/ost0 type lustre (rw)
+192.168.0.21@tcp:/testfs on /mnt/testfs type lustre (rw)
+</screen>
+    <para>In this example, the MDT, an OST (ost0) and file system (testfs) are
+    mounted.</para>
+    <screen>
+LABEL=testfs-MDT0000 /mnt/test/mdt lustre defaults,_netdev,noauto 0 0
+LABEL=testfs-OST0000 /mnt/test/ost0 lustre defaults,_netdev,noauto 0 0
+</screen>
+    <para>In general, it is wise to specify noauto and let your
+    high-availability (HA) package manage when to mount the device. If you are
+    not using failover, make sure that networking has been started before
+    mounting a Lustre server. If you are running Red Hat Enterprise Linux, SUSE
+    Linux Enterprise Server, Debian operating system (and perhaps others), use
+    the 
+    <literal>_netdev</literal> flag to ensure that these disks are mounted after
+    the network is up.</para>
+    <para>We are mounting by disk label here. The label of a device can be read
+    with 
+    <literal>e2label</literal>. The label of a newly-formatted Lustre server
+    may end in 
+    <literal>FFFF</literal> if the 
+    <literal>--index</literal> option is not specified to 
+    <literal>mkfs.lustre</literal>, meaning that it has yet to be assigned. The
+    assignment takes place when the server is first started, and the disk label
+    is updated. It is recommended that the 
+    <literal>--index</literal> option always be used, which will also ensure
+    that the label is set at format time.</para>
+    <caution>
+      <para>Do not do this when the client and OSS are on the same node, as
+      memory pressure between the client and OSS can lead to deadlocks.</para>
+    </caution>
+    <caution>
+      <para>Mount-by-label should NOT be used in a multi-path
+      environment.</para>
+    </caution>
+  </section>
+  <section xml:id="dbdoclet.50438194_69255">
+    <title>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>unmounting</secondary>
+    </indexterm>Unmounting a Server</title>
+    <para>To stop a Lustre server, use the 
+    <literal>umount 
+    <replaceable>/mount</replaceable>
+    <replaceable>point</replaceable></literal> command.</para>
+    <para>For example, to stop 
+    <literal>ost0</literal> on mount point 
+    <literal>/mnt/test</literal>, run:</para>
+    <screen>
+$ umount /mnt/test
+</screen>
+    <para>Gracefully stopping a server with the 
+    <literal>umount</literal> command preserves the state of the connected
+    clients. The next time the server is started, it waits for clients to
+    reconnect, and then goes through the recovery procedure.</para>
+    <para>If the force (
+    <literal>-f</literal>) flag is used, then the server evicts all clients and
+    stops WITHOUT recovery. Upon restart, the server does not wait for
+    recovery. Any currently connected clients receive I/O errors until they
+    reconnect.</para>
+    <note>
+      <para>If you are using loopback devices, use the 
+      <literal>-d</literal> flag. This flag cleans up loop devices and can
+      always be safely specified.</para>
+    </note>
+  </section>
+  <section xml:id="dbdoclet.50438194_57420">
+    <title>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>failover</secondary>
+    </indexterm>Specifying Failout/Failover Mode for OSTs</title>
+    <para>In a Lustre file system, an OST that has become unreachable because
+    it fails, is taken off the network, or is unmounted can be handled in one
+    of two ways:</para>
+    <itemizedlist>
+      <listitem>
+        <para>In 
+        <literal>failout</literal> mode, Lustre clients immediately receive
+        errors (EIOs) after a timeout, instead of waiting for the OST to
+        recover.</para>
+      </listitem>
+      <listitem>
+        <para>In 
+        <literal>failover</literal> mode, Lustre clients wait for the OST to
+        recover.</para>
+      </listitem>
+    </itemizedlist>
+    <para>By default, the Lustre file system uses 
+    <literal>failover</literal> mode for OSTs. To specify 
+    <literal>failout</literal> mode instead, use the 
+    <literal>--param="failover.mode=failout"</literal> option as shown below
+    (entered on one line):</para>
+    <screen>
+oss# mkfs.lustre --fsname=
+<replaceable>fsname</replaceable> --mgsnode=
+<replaceable>mgs_NID</replaceable> --param=failover.mode=failout 
+      --ost --index=
+<replaceable>ost_index</replaceable> 
+<replaceable>/dev/ost_block_device</replaceable>
+</screen>
+    <para>In the example below, 
+    <literal>failout</literal> mode is specified for the OSTs on the MGS 
+    <literal>mds0</literal> in the file system 
+    <literal>testfs</literal>(entered on one line).</para>
+    <screen>
+oss# mkfs.lustre --fsname=testfs --mgsnode=mds0 --param=failover.mode=failout 
+      --ost --index=3 /dev/sdb 
+</screen>
+    <caution>
+      <para>Before running this command, unmount all OSTs that will be affected
+      by a change in 
+      <literal>failover</literal>/ 
+      <literal>failout</literal> mode.</para>
+    </caution>
+    <note>
+      <para>After initial file system configuration, use the 
+      <literal>tunefs.lustre</literal> utility to change the mode. For example,
+      to set the 
+      <literal>failout</literal> mode, run:</para>
+      <para>
+        <screen>
+$ tunefs.lustre --param failover.mode=failout 
+<replaceable>/dev/ost_device</replaceable>
+</screen>
+      </para>
+    </note>
+  </section>
+  <section xml:id="dbdoclet.50438194_54138">
+    <title>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>degraded OST RAID</secondary>
+    </indexterm>Handling Degraded OST RAID Arrays</title>
+    <para>Lustre includes functionality that notifies Lustre if an external
+    RAID array has degraded performance (resulting in reduced overall file
+    system performance), either because a disk has failed and not been
+    replaced, or because a disk was replaced and is undergoing a rebuild. To
+    avoid a global performance slowdown due to a degraded OST, the MDS can
+    avoid the OST for new object allocation if it is notified of the degraded
+    state.</para>
+    <para>A parameter for each OST, called 
+    <literal>degraded</literal>, specifies whether the OST is running in
+    degraded mode or not.</para>
+    <para>To mark the OST as degraded, use:</para>
+    <screen>
+lctl set_param obdfilter.{OST_name}.degraded=1
+</screen>
+    <para>To mark that the OST is back in normal operation, use:</para>
+    <screen>
+lctl set_param obdfilter.{OST_name}.degraded=0
+</screen>
+    <para>To determine if OSTs are currently in degraded mode, use:</para>
+    <screen>
+lctl get_param obdfilter.*.degraded
+</screen>
+    <para>If the OST is remounted due to a reboot or other condition, the flag
+    resets to 
+    <literal>0</literal>.</para>
+    <para>It is recommended that this be implemented by an automated script
+    that monitors the status of individual RAID devices.</para>
+  </section>
+  <section xml:id="dbdoclet.50438194_88063">
+    <title>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>multiple file systems</secondary>
+    </indexterm>Running Multiple Lustre File Systems</title>
+    <para>Lustre supports multiple file systems provided the combination of 
+    <literal>NID:fsname</literal> is unique. Each file system must be allocated
+    a unique name during creation with the 
+    <literal>--fsname</literal> parameter. Unique names for file systems are
+    enforced if a single MGS is present. If multiple MGSs are present (for
+    example if you have an MGS on every MDS) the administrator is responsible
+    for ensuring file system names are unique. A single MGS and unique file
+    system names provides a single point of administration and allows commands
+    to be issued against the file system even if it is not mounted.</para>
+    <para>Lustre supports multiple file systems on a single MGS. With a single
+    MGS fsnames are guaranteed to be unique. Lustre also allows multiple MGSs
+    to co-exist. For example, multiple MGSs will be necessary if multiple file
+    systems on different Lustre software versions are to be concurrently
+    available. With multiple MGSs additional care must be taken to ensure file
+    system names are unique. Each file system should have a unique fsname among
+    all systems that may interoperate in the future.</para>
+    <para>By default, the 
+    <literal>mkfs.lustre</literal> command creates a file system named 
+    <literal>lustre</literal>. To specify a different file system name (limited
+    to 8 characters) at format time, use the 
+    <literal>--fsname</literal> option:</para>
+    <para>
+      <screen>
+mkfs.lustre --fsname=
+<replaceable>file_system_name</replaceable>
+</screen>
+    </para>
+    <note>
+      <para>The MDT, OSTs and clients in the new file system must use the same
+      file system name (prepended to the device name). For example, for a new
+      file system named 
+      <literal>foo</literal>, the MDT and two OSTs would be named 
+      <literal>foo-MDT0000</literal>, 
+      <literal>foo-OST0000</literal>, and 
+      <literal>foo-OST0001</literal>.</para>
+    </note>
+    <para>To mount a client on the file system, run:</para>
+    <screen>
+client# mount -t lustre 
+<replaceable>mgsnode</replaceable>:
+<replaceable>/new_fsname</replaceable> 
+<replaceable>/mount_point</replaceable>
+</screen>
+    <para>For example, to mount a client on file system foo at mount point
+    /mnt/foo, run:</para>
+    <screen>
+client# mount -t lustre mgsnode:/foo /mnt/foo
+</screen>
+    <note>
+      <para>If a client(s) will be mounted on several file systems, add the
+      following line to 
+      <literal>/etc/xattr.conf</literal> file to avoid problems when files are
+      moved between the file systems: 
+      <literal>lustre.* skip</literal></para>
+    </note>
+    <note>
+      <para>To ensure that a new MDT is added to an existing MGS create the MDT
+      by specifying: 
+      <literal>--mdt --mgsnode=
+      <replaceable>mgs_NID</replaceable></literal>.</para>
+    </note>
+    <para>A Lustre installation with two file systems (
+    <literal>foo</literal> and 
+    <literal>bar</literal>) could look like this, where the MGS node is 
+    <literal>mgsnode@tcp0</literal> and the mount points are 
+    <literal>/mnt/foo</literal> and 
+    <literal>/mnt/bar</literal>.</para>
+    <screen>
+mgsnode# mkfs.lustre --mgs /dev/sda
+mdtfoonode# mkfs.lustre --fsname=foo --mgsnode=mgsnode@tcp0 --mdt --index=0
+/dev/sdb
+ossfoonode# mkfs.lustre --fsname=foo --mgsnode=mgsnode@tcp0 --ost --index=0
+/dev/sda
+ossfoonode# mkfs.lustre --fsname=foo --mgsnode=mgsnode@tcp0 --ost --index=1
+/dev/sdb
+mdtbarnode# mkfs.lustre --fsname=bar --mgsnode=mgsnode@tcp0 --mdt --index=0
+/dev/sda
+ossbarnode# mkfs.lustre --fsname=bar --mgsnode=mgsnode@tcp0 --ost --index=0
+/dev/sdc
+ossbarnode# mkfs.lustre --fsname=bar --mgsnode=mgsnode@tcp0 --ost --index=1
+/dev/sdd
+</screen>
+    <para>To mount a client on file system foo at mount point 
+    <literal>/mnt/foo</literal>, run:</para>
+    <screen>
+client# mount -t lustre mgsnode@tcp0:/foo /mnt/foo
+</screen>
+    <para>To mount a client on file system bar at mount point 
+    <literal>/mnt/bar</literal>, run:</para>
+    <screen>
+client# mount -t lustre mgsnode@tcp0:/bar /mnt/bar
+</screen>
+  </section>
+  <section xml:id="dbdoclet.lfsmkdir" condition='l24'>
+    <title>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>remote directory</secondary>
+    </indexterm>Creating a sub-directory on a given MDT</title>
+    <para>Lustre 2.4 enables individual sub-directories to be serviced by
+    unique MDTs. An administrator can allocate a sub-directory to a given MDT
+    using the command:</para>
+    <screen>
+client# lfs mkdir –i
+<replaceable>mdt_index</replaceable>
+<replaceable>/mount_point/remote_dir</replaceable>
+</screen>
+    <para>This command will allocate the sub-directory
+    <literal>remote_dir</literal> onto the MDT of index
+    <literal>mdt_index</literal>. For more information on adding additional MDTs
+    and 
+    <literal>mdt_index</literal> see
+    <xref linkend='dbdoclet.addmdtindex' />.</para>
+    <warning>
+      <para>An administrator can allocate remote sub-directories to separate
+      MDTs. Creating remote sub-directories in parent directories not hosted on
+      MDT0 is not recommended. This is because the failure of the parent MDT
+      will leave the namespace below it inaccessible. For this reason, by
+      default it is only possible to create remote sub-directories off MDT0. To
+      relax this restriction and enable remote sub-directories off any MDT, an
+      administrator must issue the following command on the MGS:
+      <screen>mgs# lctl conf_param <replaceable>fsname</replaceable>.mdt.enable_remote_dir=1</screen>
+      For Lustre filesystem 'scratch', the command executed is:
+      <screen>mgs# lctl conf_param scratch.mdt.enable_remote_dir=1</screen>
+      To verify the configuration setting execute the following command on any
+      MDS:
+          <screen>mds# lctl get_param mdt.*.enable_remote_dir</screen></para>
+    </warning>
+    <para condition='l28'>With Lustre software version 2.8, a new
+    tunable is available to allow users with a specific group ID to create
+    and delete remote and striped directories. This tunable is
+    <literal>enable_remote_dir_gid</literal>. For example, setting this
+    parameter to the 'wheel' or 'admin' group ID allows users with that GID
+    to create and delete remote and striped directories. Setting this
+    parameter to <literal>-1</literal> on MDT0 to permanently allow any
+    non-root users create and delete remote and striped directories.
+    On the MGS execute the following command:
+    <screen>mgs# lctl conf_param <replaceable>fsname</replaceable>.mdt.enable_remote_dir_gid=-1</screen>
+    For the Lustre filesystem 'scratch', the commands expands to:
+    <screen>mgs# lctl conf_param scratch.mdt.enable_remote_dir_gid=-1</screen>.
+    The change can be verified by executing the following command on every MDS:
+    <screen>mds# lctl get_param mdt.<replaceable>*</replaceable>.enable_remote_dir_gid</screen>
+    </para>
+  </section>
+  <section xml:id="dbdoclet.lfsmkdirdne2" condition='l28'>
+    <title>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>striped directory</secondary>
+    </indexterm>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>mkdir</secondary>
+    </indexterm>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>setdirstripe</secondary>
+    </indexterm>
+    <indexterm>
+      <primary>striping</primary>
+      <secondary>metadata</secondary>
+    </indexterm>Creating a directory striped across multiple MDTs</title>
+    <para>The Lustre 2.8 DNE feature enables individual files in a given
+    directory to store their metadata on separate MDTs (a <emphasis>striped
+    directory</emphasis>) once additional MDTs have been added to the
+    filesystem, see <xref linkend="dbdoclet.addingamdt"/>.
+    The result of this is that metadata requests for
+    files in a striped directory are serviced by multiple MDTs and metadata
+    service load is distributed over all the MDTs that service a given
+    directory. By distributing metadata service load over multiple MDTs,
+    performance can be improved beyond the limit of single MDT
+    performance. Prior to the development of this feature all files in a
+    directory must record their metadata on a single MDT.</para>
+    <para>This command to stripe a directory over
+    <replaceable>mdt_count</replaceable> MDTs is:
+    </para>
+    <screen>
+client# lfs mkdir -c
+<replaceable>mdt_count</replaceable>
+<replaceable>/mount_point/new_directory</replaceable>
+</screen>
+    <para>The striped directory feature is most useful for distributing
+    single large directories (50k entries or more) across multiple MDTs,
+    since it incurs more overhead than non-striped directories.</para>
+  </section>
+  <section xml:id="dbdoclet.50438194_88980">
+    <title>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>parameters</secondary>
+    </indexterm>Setting and Retrieving Lustre Parameters</title>
+    <para>Several options are available for setting parameters in
+    Lustre:</para>
+    <itemizedlist>
+      <listitem>
+        <para>When creating a file system, use mkfs.lustre. See 
+        <xref linkend="dbdoclet.50438194_17237" />below.</para>
+      </listitem>
+      <listitem>
+        <para>When a server is stopped, use tunefs.lustre. See 
+        <xref linkend="dbdoclet.50438194_55253" />below.</para>
+      </listitem>
+      <listitem>
+        <para>When the file system is running, use lctl to set or retrieve
+        Lustre parameters. See 
+        <xref linkend="dbdoclet.50438194_51490" />and 
+        <xref linkend="dbdoclet.50438194_63247" />below.</para>
+      </listitem>
+    </itemizedlist>
+    <section xml:id="dbdoclet.50438194_17237">
+      <title>Setting Tunable Parameters with 
+      <literal>mkfs.lustre</literal></title>
+      <para>When the file system is first formatted, parameters can simply be
+      added as a 
+      <literal>--param</literal> option to the 
+      <literal>mkfs.lustre</literal> command. For example:</para>
+      <screen>
+mds# mkfs.lustre --mdt --param="sys.timeout=50" /dev/sda
+</screen>
+      <para>For more details about creating a file system,see 
+      <xref linkend="configuringlustre" />. For more details about 
+      <literal>mkfs.lustre</literal>, see 
+      <xref linkend="systemconfigurationutilities" />.</para>
     </section>
-    <section xml:id="dbdoclet.50438194_24122">
-      <title>13.2 Starting <anchor xml:id="dbdoclet.50438194_marker-1305696" xreflabel=""/>Lustre</title>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1304353" xreflabel=""/>The startup order of Lustre components depends on whether you have a combined MGS/MDT or these components are separate.</para>
-      <itemizedlist><listitem>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1304354" xreflabel=""/> If you have a combined MGS/MDT, the recommended startup order is OSTs, then the MGS/MDT, and then clients.</para>
-        </listitem>
-<listitem>
-          <para> </para>
-        </listitem>
-<listitem>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1304355" xreflabel=""/> If the MGS and MDT are separate, the recommended startup order is: MGS, then OSTs, then the MDT, and then clients.</para>
-        </listitem>
-<listitem>
-          <para> </para>
-        </listitem>
-</itemizedlist>
-              <note><para>If an OST is added to a Lustre file system with a combined MGS/MDT, then the startup order changes slightly; the MGS must be started first because the OST needs to write its configuration data to it. In this scenario, the startup order is MGS/MDT, then OSTs, then the clients.</para></note>
-    </section>
-    <section xml:id="dbdoclet.50438194_84876">
-      <title>13.3 Mounting a <anchor xml:id="dbdoclet.50438194_marker-1298863" xreflabel=""/>Server</title>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298865" xreflabel=""/>Starting a Lustre server is straightforward and only involves the mount command. Lustre servers can be added to /etc/fstab:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1298866" xreflabel=""/>mount -t lustre
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298867" xreflabel=""/>The mount command generates output similar to this:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1298868" xreflabel=""/>/dev/sda1 on /mnt/test/mdt type lustre (rw)
-<anchor xml:id="dbdoclet.50438194_pgfId-1298869" xreflabel=""/>/dev/sda2 on /mnt/test/ost0 type lustre (rw)
-<anchor xml:id="dbdoclet.50438194_pgfId-1298870" xreflabel=""/>192.168.0.21@tcp:/testfs on /mnt/testfs type lustre (rw)
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298871" xreflabel=""/>In this example, the MDT, an OST (ost0) and file system (testfs) are mounted.</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1298872" xreflabel=""/>LABEL=testfs-MDT0000 /mnt/test/mdt lustre defaults,_netdev,noauto 0 0
-<anchor xml:id="dbdoclet.50438194_pgfId-1298873" xreflabel=""/>LABEL=testfs-OST0000 /mnt/test/ost0 lustre defaults,_netdev,noauto 0 0
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298874" xreflabel=""/>In general, it is wise to specify noauto and let your high-availability (HA) package manage when to mount the device. If you are not using failover, make sure that networking has been started before mounting a Lustre server. RedHat, SuSE, Debian (and perhaps others) use the _netdev flag to ensure that these disks are mounted after the network is up.</para>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298875" xreflabel=""/>We are mounting by disk label here--the label of a device can be read with e2label. The label of a newly-formatted Lustre server ends in FFFF, meaning that it has yet to be assigned. The assignment takes place when the server is first started, and the disk label is updated.</para>
-
-              <caution><para>Do not do this when the client and OSS are on the same node, as memory pressure between the client and OSS can lead to deadlocks.</para></caution>
-          
-              <caution><para>Mount-by-label should NOT be used in a multi-path environment.</para></caution>
-
-    </section>
-    <section xml:id="dbdoclet.50438194_69255">
-      <title>13.4 Unmounting a<anchor xml:id="dbdoclet.50438194_marker-1298879" xreflabel=""/> Server</title>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298881" xreflabel=""/>To stop a Lustre server, use the umount &lt;mount point&gt; command.</para>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298882" xreflabel=""/>For example, to stop ost0 on mount point /mnt/test, run:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1298883" xreflabel=""/>$ umount /mnt/test
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298884" xreflabel=""/>Gracefully stopping a server with the umount command preserves the state of the connected clients. The next time the server is started, it waits for clients to reconnect, and then goes through the recovery procedure.</para>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298885" xreflabel=""/>If the force (-f) flag is used, then the server evicts all clients and stops WITHOUT recovery. Upon restart, the server does not wait for recovery. Any currently connected clients receive I/O errors until they reconnect.</para>
-
-              <note><para>If you are using loopback devices, use the -d flag. This flag cleans up loop devices and can always be safely specified.</para></note>
-
-    </section>
-    <section xml:id="dbdoclet.50438194_57420">
-      <title>13.5 Specifying Fail<anchor xml:id="dbdoclet.50438194_marker-1298926" xreflabel=""/>out/Failover Mode for OSTs</title>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298928" xreflabel=""/>Lustre uses two modes, failout and failover, to handle an OST that has become unreachable because it fails, is taken off the network, is unmounted, etc.</para>
-      <itemizedlist><listitem>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1298929" xreflabel=""/> In <emphasis>failout</emphasis> mode, Lustre clients immediately receive errors (EIOs) after a timeout, instead of waiting for the OST to recover.</para>
-        </listitem>
-<listitem>
-          <para> </para>
-        </listitem>
-<listitem>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1298930" xreflabel=""/> In <emphasis>failover</emphasis> mode, Lustre clients wait for the OST to recover.</para>
-        </listitem>
-<listitem>
-          <para> </para>
-        </listitem>
-</itemizedlist>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298931" xreflabel=""/>By default, the Lustre file system uses failover mode for OSTs. To specify failout mode instead, run this command:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1298932" xreflabel=""/>$ mkfs.lustre --fsname=&lt;fsname&gt; --ost --mgsnode=&lt;MGS node NID&gt; --param=&quot;failover\
-.mode=failout&quot; &lt;block device name&gt;
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298934" xreflabel=""/>In this example, failout mode is specified for the OSTs on MGS uml1, file system testfs.</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1298935" xreflabel=""/>$ mkfs.lustre --fsname=testfs --ost --mgsnode=uml1 --param=&quot;failover.mode=fa\
-ilout&quot; /dev/sdb 
-</screen>
-
-              <caution><para>Before running this command, unmount all OSTs that will be affected by the change in the failover/failout mode.</para></caution>
-              <note><para>After initial file system configuration, use the tunefs.lustre utility to change the failover/failout mode. For example, to set the failout mode, run:</para><para>$ tunefs.lustre --param failover.mode=failout &lt;OST partition&gt;</para></note>
-
-    </section>
-    <section xml:id="dbdoclet.50438194_54138">
-      <title>13.6 Handling <anchor xml:id="dbdoclet.50438194_marker-1307136" xreflabel=""/>Degraded OST RAID Arrays</title>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307138" xreflabel=""/>Lustre includes functionality that notifies Lustre if an external RAID array has degraded performance (resulting in reduced overall file system performance), either because a disk has failed and not been replaced, or because a disk was replaced and is undergoing a rebuild. To avoid a global performance slowdown due to a degraded OST, the MDS can avoid the OST for new object allocation if it is notified of the degraded state.</para>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307139" xreflabel=""/>A parameter for each OST, called degraded, specifies whether the OST is running in degraded mode or not.</para>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307140" xreflabel=""/>To mark the OST as degraded, use:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307141" xreflabel=""/>lctl set_param obdfilter.{OST_name}.degraded=1</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307142" xreflabel=""/>To mark that the OST is back in normal operation, use:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307143" xreflabel=""/>lctl set_param obdfilter.{OST_name}.degraded=0
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307144" xreflabel=""/>To determine if OSTs are currently in degraded mode, use:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307145" xreflabel=""/>lctl get_param obdfilter.*.degraded
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307146" xreflabel=""/>If the OST is remounted due to a reboot or other condition, the flag resets to 0.</para>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307147" xreflabel=""/>It is recommended that this be implemented by an automated script that monitors the status of individual RAID devices.</para>
+    <section xml:id="dbdoclet.50438194_55253">
+      <title>Setting Parameters with 
+      <literal>tunefs.lustre</literal></title>
+      <para>If a server (OSS or MDS) is stopped, parameters can be added to an
+      existing file system using the 
+      <literal>--param</literal> option to the 
+      <literal>tunefs.lustre</literal> command. For example:</para>
+      <screen>
+oss# tunefs.lustre --param=failover.node=192.168.0.13@tcp0 /dev/sda
+</screen>
+      <para>With 
+      <literal>tunefs.lustre</literal>, parameters are 
+      <emphasis>additive</emphasis>-- new parameters are specified in addition
+      to old parameters, they do not replace them. To erase all old 
+      <literal>tunefs.lustre</literal> parameters and just use newly-specified
+      parameters, run:</para>
+      <screen>
+mds# tunefs.lustre --erase-params --param=
+<replaceable>new_parameters</replaceable> 
+</screen>
+      <para>The tunefs.lustre command can be used to set any parameter settable
+      in a /proc/fs/lustre file and that has its own OBD device, so it can be
+      specified as 
+      <literal>
+      <replaceable>obdname|fsname</replaceable>.
+      <replaceable>obdtype</replaceable>.
+      <replaceable>proc_file_name</replaceable>=
+      <replaceable>value</replaceable></literal>. For example:</para>
+      <screen>
+mds# tunefs.lustre --param mdt.identity_upcall=NONE /dev/sda1
+</screen>
+      <para>For more details about 
+      <literal>tunefs.lustre</literal>, see 
+      <xref linkend="systemconfigurationutilities" />.</para>
     </section>
-    <section xml:id="dbdoclet.50438194_88063">
-      <title>13.7 Running Multiple<anchor xml:id="dbdoclet.50438194_marker-1298939" xreflabel=""/> Lustre File Systems</title>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298941" xreflabel=""/>There may be situations in which you want to run multiple file systems. This is doable, as long as you follow specific naming conventions.</para>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298942" xreflabel=""/>By default, the mkfs.lustre command creates a file system named lustre. To specify a different file system name (limited to 8 characters), run this command:</para>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298943" xreflabel=""/>mkfs.lustre --fsname=&lt;new file system name&gt;</para>
-              <note><para>The MDT, OSTs and clients in the new file system must share the same name (prepended to the device name). For example, for a new file system named foo, the MDT and two OSTs would be named foo-MDT0000, foo-OST0000, and foo-OST0001.</para></note>
-              
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298945" xreflabel=""/>To mount a client on the file system, run:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1298946" xreflabel=""/>mount -t lustre mgsnode:/&lt;new fsname&gt; &lt;mountpoint&gt;
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298947" xreflabel=""/>For example, to mount a client on file system foo at mount point /mnt/lustre1, run:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1298948" xreflabel=""/>mount -t lustre mgsnode:/foo /mnt/lustre1
-</screen>
-              <note><para>If a client(s) will be mounted on several file systems, add the following line to /etc/xattr.conf file to avoid problems when files are moved between the file systems: lustre.* skip</para></note>
-              <note><para>The MGS is universal; there is only one MGS per Lustre installation, not per file system.</para></note>
-              <note><para>There is only one file system per MDT. Therefore, specify --mdt --mgs on one file system and --mdt --mgsnode=&lt;MGS node NID&gt; on the other file systems.</para></note>
-
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298951" xreflabel=""/>A Lustre installation with two file systems (foo and bar) could look like this, where the MGS node is mgsnode@tcp0 and the mount points are /mnt/lustre1 and /mnt/lustre2.</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307225" xreflabel=""/>mgsnode# mkfs.lustre --mgs /mnt/lustre1
-<anchor xml:id="dbdoclet.50438194_pgfId-1298953" xreflabel=""/>mdtfoonode# mkfs.lustre --fsname=foo --mdt --mgsnode=mgsnode@tcp0 /mnt/lust\
-re1
-<anchor xml:id="dbdoclet.50438194_pgfId-1298954" xreflabel=""/>ossfoonode# mkfs.lustre --fsname=foo --ost --mgsnode=mgsnode@tcp0 /mnt/lust\
-re1
-<anchor xml:id="dbdoclet.50438194_pgfId-1298955" xreflabel=""/>ossfoonode# mkfs.lustre --fsname=foo --ost --mgsnode=mgsnode@tcp0 /mnt/lust\
-re2
-<anchor xml:id="dbdoclet.50438194_pgfId-1298956" xreflabel=""/>mdtbarnode# mkfs.lustre --fsname=bar --mdt --mgsnode=mgsnode@tcp0 /mnt/lust\
-re1
-<anchor xml:id="dbdoclet.50438194_pgfId-1298957" xreflabel=""/>ossbarnode# mkfs.lustre --fsname=bar --ost --mgsnode=mgsnode@tcp0 /mnt/lust\
-re1
-<anchor xml:id="dbdoclet.50438194_pgfId-1298958" xreflabel=""/>ossbarnode# mkfs.lustre --fsname=bar --ost --mgsnode=mgsnode@tcp0 /mnt/lust\
-re2
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298959" xreflabel=""/>To mount a client on file system foo at mount point /mnt/lustre1, run:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1298960" xreflabel=""/>mount -t lustre mgsnode@tcp0:/foo /mnt/lustre1
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1298961" xreflabel=""/>To mount a client on file system bar at mount point /mnt/lustre2, run:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1298962" xreflabel=""/>mount -t lustre mgsnode@tcp0:/bar /mnt/lustre2
+    <section xml:id="dbdoclet.50438194_51490">
+      <title>Setting Parameters with 
+      <literal>lctl</literal></title>
+      <para>When the file system is running, the 
+      <literal>lctl</literal> command can be used to set parameters (temporary
+      or permanent) and report current parameter values. Temporary parameters
+      are active as long as the server or client is not shut down. Permanent
+      parameters live through server and client reboots.</para>
+      <note>
+        <para>The lctl list_param command enables users to list all parameters
+        that can be set. See 
+        <xref linkend="dbdoclet.50438194_88217" />.</para>
+      </note>
+      <para>For more details about the 
+      <literal>lctl</literal> command, see the examples in the sections below
+      and 
+      <xref linkend="systemconfigurationutilities" />.</para>
+      <section remap="h4">
+        <title>Setting Temporary Parameters</title>
+        <para>Use 
+        <literal>lctl set_param</literal> to set temporary parameters on the
+        node where it is run. These parameters map to items in 
+        <literal>/proc/{fs,sys}/{lnet,lustre}</literal>. The 
+        <literal>lctl set_param</literal> command uses this syntax:</para>
+        <screen>
+lctl set_param [-n] 
+<replaceable>obdtype</replaceable>.
+<replaceable>obdname</replaceable>.
+<replaceable>proc_file_name</replaceable>=
+<replaceable>value</replaceable>
+</screen>
+        <para>For example:</para>
+        <screen>
+# lctl set_param osc.*.max_dirty_mb=1024
+osc.myth-OST0000-osc.max_dirty_mb=32
+osc.myth-OST0001-osc.max_dirty_mb=32
+osc.myth-OST0002-osc.max_dirty_mb=32
+osc.myth-OST0003-osc.max_dirty_mb=32
+osc.myth-OST0004-osc.max_dirty_mb=32
 </screen>
-    </section>
-    <section xml:id="dbdoclet.50438194_88980">
-      <title>13.8 Setting <anchor xml:id="dbdoclet.50438194_marker-1302467" xreflabel=""/>and Retrieving Lustre Parameters</title>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1301646" xreflabel=""/>Several options are available for setting parameters in Lustre:</para>
-      <itemizedlist><listitem>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1301703" xreflabel=""/> When creating a file system, use mkfs.lustre. See <link xl:href="LustreOperations.html#50438194_17237">Setting Parameters with mkfs.lustre</link> below.</para>
-        </listitem>
-<listitem>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1301745" xreflabel=""/> When a server is stopped, use tunefs.lustre. See <link xl:href="LustreOperations.html#50438194_55253">Setting Parameters with tunefs.lustre</link> below.</para>
-        </listitem>
-<listitem>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1301707" xreflabel=""/> When the file system is running, use lctl to set or retrieve Lustre parameters. See <link xl:href="LustreOperations.html#50438194_51490">Setting Parameters with lctl</link> and <link xl:href="LustreOperations.html#50438194_63247">Reporting Current Parameter Values</link> below.</para>
-        </listitem>
-</itemizedlist>
-      <section remap="h3">
-        <title><anchor xml:id="dbdoclet.50438194_pgfId-1301648" xreflabel=""/>13.8.1 <anchor xml:id="dbdoclet.50438194_17237" xreflabel=""/>Setting Parameters with <anchor xml:id="dbdoclet.50438194_marker-1305722" xreflabel=""/>mkfs.lustre</title>
-        <para><anchor xml:id="dbdoclet.50438194_pgfId-1301792" xreflabel=""/>When the file system is created, parameters can simply be added as a --param option to the mkfs.lustre command. For example:</para>
-        <screen><anchor xml:id="dbdoclet.50438194_pgfId-1301795" xreflabel=""/>$ mkfs.lustre --mdt --param=&quot;sys.timeout=50&quot; /dev/sda
-</screen>
-        <para><anchor xml:id="dbdoclet.50438194_pgfId-1306965" xreflabel=""/>For more details about creating a file system,see <link xl:href="ConfiguringLustre.html#50438267_88428">Chapter 10</link><emphasis>:</emphasis><link xl:href="ConfiguringLustre.html#50438267_66186">Configuring Lustre</link>. For more details about mkfs.lustre, see <link xl:href="SystemConfigurationUtilities.html#50438219_66186">Chapter 36: System Configuration Utilities</link>.</para>
       </section>
-      <section remap="h3">
-        <title><anchor xml:id="dbdoclet.50438194_pgfId-1301767" xreflabel=""/>13.8.2 <anchor xml:id="dbdoclet.50438194_55253" xreflabel=""/>Setting Parameters with <anchor xml:id="dbdoclet.50438194_marker-1305720" xreflabel=""/>tunefs.lustre</title>
-        <para><anchor xml:id="dbdoclet.50438194_pgfId-1301651" xreflabel=""/>If a server (OSS or MDS) is stopped, parameters can be added using the --param option to the tunefs.lustre command. For example:</para>
-        <screen><anchor xml:id="dbdoclet.50438194_pgfId-1301652" xreflabel=""/>$ tunefs.lustre --param=&quot;failover.node=192.168.0.13@tcp0&quot; /dev/sda
-</screen>
-        <para><anchor xml:id="dbdoclet.50438194_pgfId-1301653" xreflabel=""/>With tunefs.lustre, parameters are &quot;additive&quot; -- new parameters are specified in addition to old parameters, they do not replace them. To erase all old tunefs.lustre parameters and just use newly-specified parameters, run:</para>
-        <screen><anchor xml:id="dbdoclet.50438194_pgfId-1301856" xreflabel=""/>$ tunefs.lustre --erase-params --param=&lt;new parameters&gt; </screen>
-        <para><anchor xml:id="dbdoclet.50438194_pgfId-1302108" xreflabel=""/>The tunefs.lustre command can be used to set any parameter settable in a /proc/fs/lustre file and that has its own OBD device, so it can be specified as &lt;obd|fsname&gt;.&lt;obdtype&gt;.&lt;proc_file_name&gt;=&lt;value&gt;. For example:</para>
-        <screen><anchor xml:id="dbdoclet.50438194_pgfId-1302086" xreflabel=""/>$ tunefs.lustre --param mdt.group_upcall=NONE /dev/sda1
-</screen>
-        <para><anchor xml:id="dbdoclet.50438194_pgfId-1307012" xreflabel=""/>For more details about tunefs.lustre, see <link xl:href="SystemConfigurationUtilities.html#50438219_66186">Chapter 36: System Configuration Utilities</link>.</para>
+      <section xml:id="dbdoclet.50438194_64195">
+        <title>Setting Permanent Parameters</title>
+        <para>Use the 
+        <literal>lctl conf_param</literal> command to set permanent parameters.
+        In general, the 
+        <literal>lctl conf_param</literal> command can be used to specify any
+        parameter settable in a 
+        <literal>/proc/fs/lustre</literal> file, with its own OBD device. The 
+        <literal>lctl conf_param</literal> command uses this syntax (same as the
+        
+        <literal>mkfs.lustre</literal> and 
+        <literal>tunefs.lustre</literal> commands):</para>
+        <screen>
+<replaceable>obdname|fsname</replaceable>.
+<replaceable>obdtype</replaceable>.
+<replaceable>proc_file_name</replaceable>=
+<replaceable>value</replaceable>) 
+</screen>
+        <para>Here are a few examples of 
+        <literal>lctl conf_param</literal> commands:</para>
+        <screen>
+mgs# lctl conf_param testfs-MDT0000.sys.timeout=40
+$ lctl conf_param testfs-MDT0000.mdt.identity_upcall=NONE
+$ lctl conf_param testfs.llite.max_read_ahead_mb=16
+$ lctl conf_param testfs-MDT0000.lov.stripesize=2M
+$ lctl conf_param testfs-OST0000.osc.max_dirty_mb=29.15
+$ lctl conf_param testfs-OST0000.ost.client_cache_seconds=15
+$ lctl conf_param testfs.sys.timeout=40 
+</screen>
+        <caution>
+          <para>Parameters specified with the 
+          <literal>lctl conf_param</literal> command are set permanently in the
+          file system's configuration file on the MGS.</para>
+        </caution>
       </section>
-      <section remap="h3">
-        <title><anchor xml:id="dbdoclet.50438194_pgfId-1301773" xreflabel=""/>13.8.3 <anchor xml:id="dbdoclet.50438194_51490" xreflabel=""/>Setting Parameters <anchor xml:id="dbdoclet.50438194_marker-1305718" xreflabel=""/>with lctl</title>
-        <para><anchor xml:id="dbdoclet.50438194_pgfId-1304759" xreflabel=""/>When the file system is running, the lctl command can be used to set parameters (temporary or permanent) and report current parameter values. Temporary parameters are active as long as the server or client is not shut down. Permanent parameters live through server and client reboots.</para>
-                  <note><para>The lctl list_param command enables users to list all parameters that can be set. See <xref linkend='dbdoclet.50438194_88217'/>.</para></note>
-        <para><anchor xml:id="dbdoclet.50438194_pgfId-1307027" xreflabel=""/>For more details about the lctl command, see the examples in the sections below and <xref linkend='systemconfigurationutilities'/>.</para>
-        <section remap="h4">
-          <title><anchor xml:id="dbdoclet.50438194_pgfId-1307025" xreflabel=""/>13.8.3.1 Setting Temporary Parameters</title>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1303290" xreflabel=""/>Use lctl set_param to set temporary parameters on the node where it is run. These parameters map to items in /proc/{fs,sys}/{lnet,lustre}. The lctl set_param command uses this syntax:</para>
-          <screen><anchor xml:id="dbdoclet.50438194_pgfId-1302283" xreflabel=""/>lctl set_param [-n] &lt;obdtype&gt;.&lt;obdname&gt;.&lt;proc_file_name&gt;=&lt;value&gt;
-</screen>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1302281" xreflabel=""/>For example:</para>
-          <screen><anchor xml:id="dbdoclet.50438194_pgfId-1301900" xreflabel=""/># lctl set_param osc.*.max_dirty_mb=1024
-<anchor xml:id="dbdoclet.50438194_pgfId-1304516" xreflabel=""/>osc.myth-OST0000-osc.max_dirty_mb=32 
-<anchor xml:id="dbdoclet.50438194_pgfId-1304542" xreflabel=""/>osc.myth-OST0001-osc.max_dirty_mb=32 
-<anchor xml:id="dbdoclet.50438194_pgfId-1304545" xreflabel=""/>osc.myth-OST0002-osc.max_dirty_mb=32 
-<anchor xml:id="dbdoclet.50438194_pgfId-1304548" xreflabel=""/>osc.myth-OST0003-osc.max_dirty_mb=32 
-<anchor xml:id="dbdoclet.50438194_pgfId-1304551" xreflabel=""/>osc.myth-OST0004-osc.max_dirty_mb=32
-</screen>
-        </section>
-        <section remap="h4">
-          <title><anchor xml:id="dbdoclet.50438194_pgfId-1302347" xreflabel=""/>13.8.3.2 <anchor xml:id="dbdoclet.50438194_64195" xreflabel=""/>Setting Permanent Parameters</title>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1303209" xreflabel=""/>Use the lctl conf_param command to set permanent parameters. In general, the lctl conf_param command can be used to specify any parameter settable in a /proc/fs/lustre file, with its own OBD device. The lctl conf_param command uses this syntax (same as the mkfs.lustre and tunefs.lustre commands):</para>
-          <screen><anchor xml:id="dbdoclet.50438194_pgfId-1302348" xreflabel=""/>&lt;obd|fsname&gt;.&lt;obdtype&gt;.&lt;proc_file_name&gt;=&lt;value&gt;) 
-</screen>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1304695" xreflabel=""/>Here are a few examples of lctl conf_param commands:</para>
-          <screen><anchor xml:id="dbdoclet.50438194_pgfId-1302350" xreflabel=""/>$ mgs&gt; lctl conf_param testfs-MDT0000.sys.timeout=40
-<anchor xml:id="dbdoclet.50438194_pgfId-1302351" xreflabel=""/>$ lctl conf_param testfs-MDT0000.mdt.group_upcall=NONE 
-<anchor xml:id="dbdoclet.50438194_pgfId-1302352" xreflabel=""/>$ lctl conf_param testfs.llite.max_read_ahead_mb=16 
-<anchor xml:id="dbdoclet.50438194_pgfId-1302353" xreflabel=""/>$ lctl conf_param testfs-MDT0000.lov.stripesize=2M 
-<anchor xml:id="dbdoclet.50438194_pgfId-1302354" xreflabel=""/>$ lctl conf_param testfs-OST0000.osc.max_dirty_mb=29.15 
-<anchor xml:id="dbdoclet.50438194_pgfId-1302355" xreflabel=""/>$ lctl conf_param testfs-OST0000.ost.client_cache_seconds=15 
-<anchor xml:id="dbdoclet.50438194_pgfId-1302356" xreflabel=""/>$ lctl conf_param testfs.sys.timeout=40 
-</screen>
-                  <caution><para>Parameters specified with the lctlconf_param command are set permanently in the file system's configuration file on the MGS.</para></caution>
-        </section>
-        <section remap="h4">
-          <title><anchor xml:id="dbdoclet.50438194_pgfId-1305661" xreflabel=""/>13.8.3.3 <anchor xml:id="dbdoclet.50438194_88217" xreflabel=""/>Listing Parameters</title>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1305964" xreflabel=""/>To list Lustre or LNET parameters that are available to set, use the lctl list_param command. For example:</para>
-          <screen><anchor xml:id="dbdoclet.50438194_pgfId-1305965" xreflabel=""/>lctl list_param [-FR] &lt;obdtype&gt;.&lt;obdname&gt;
-</screen>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1305966" xreflabel=""/>The following arguments are available for the lctl list_param command.</para>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1305967" xreflabel=""/>-F Add &apos;/&apos;, &apos;@&apos; or &apos;=&apos; for directories, symlinks and writeable files, respectively</para>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1305968" xreflabel=""/>-R Recursively lists all parameters under the specified path</para>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1305969" xreflabel=""/>For example:</para>
-          <screen><anchor xml:id="dbdoclet.50438194_pgfId-1305970" xreflabel=""/>$ lctl list_param obdfilter.lustre-OST0000 
-</screen>
-        </section>
-        <section remap="h4">
-          <title><anchor xml:id="dbdoclet.50438194_pgfId-1302343" xreflabel=""/>13.8.3.4 <anchor xml:id="dbdoclet.50438194_63247" xreflabel=""/>Reporting Current <anchor xml:id="dbdoclet.50438194_marker-1302474" xreflabel=""/>Parameter Values</title>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1302292" xreflabel=""/>To report current Lustre parameter values, use the lctl get_param command with this syntax:</para>
-          <screen><anchor xml:id="dbdoclet.50438194_pgfId-1302296" xreflabel=""/>lctl get_param [-n] &lt;obdtype&gt;.&lt;obdname&gt;.&lt;proc_file_name&gt;
-</screen>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1302294" xreflabel=""/>This example reports data on RPC service times.</para>
-          <screen><anchor xml:id="dbdoclet.50438194_pgfId-1302235" xreflabel=""/>$ lctl get_param -n ost.*.ost_io.timeouts 
-<anchor xml:id="dbdoclet.50438194_pgfId-1304578" xreflabel=""/>service : cur 1 worst 30 (at 1257150393, 85d23h58m54s ago) 1 1 1 1 
-</screen>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1304580" xreflabel=""/>This example reports the number of inodes available on each OST.</para>
-          <screen><anchor xml:id="dbdoclet.50438194_pgfId-1304662" xreflabel=""/># lctl get_param osc.*.filesfree
-<anchor xml:id="dbdoclet.50438194_pgfId-1304626" xreflabel=""/>osc.myth-OST0000-osc-ffff88006dd20000.filesfree=217623 
-<anchor xml:id="dbdoclet.50438194_pgfId-1304649" xreflabel=""/>osc.myth-OST0001-osc-ffff88006dd20000.filesfree=5075042 
-<anchor xml:id="dbdoclet.50438194_pgfId-1304652" xreflabel=""/>osc.myth-OST0002-osc-ffff88006dd20000.filesfree=3762034 
-<anchor xml:id="dbdoclet.50438194_pgfId-1304655" xreflabel=""/>osc.myth-OST0003-osc-ffff88006dd20000.filesfree=91052 
-<anchor xml:id="dbdoclet.50438194_pgfId-1304658" xreflabel=""/>osc.myth-OST0004-osc-ffff88006dd20000.filesfree=129651<anchor xml:id="dbdoclet.50438194_88030" xreflabel=""/><anchor xml:id="dbdoclet.50438194_54623" xreflabel=""/></screen>
-        </section>
+      <section xml:id="dbdoclet.setparamp" condition='l25'>
+        <title>Setting Permanent Parameters with lctl set_param -P</title>
+        <para>Use the 
+        <literal>lctl set_param -P</literal> to set parameters permanently. This
+        command must be issued on the MGS. The given parameter is set on every
+        host using 
+        <literal>lctl</literal> upcall. Parameters map to items in 
+        <literal>/proc/{fs,sys}/{lnet,lustre}</literal>. The 
+        <literal>lctl set_param</literal> command uses this syntax:</para>
+        <screen>
+lctl set_param -P 
+<replaceable>obdtype</replaceable>.
+<replaceable>obdname</replaceable>.
+<replaceable>proc_file_name</replaceable>=
+<replaceable>value</replaceable>
+</screen>
+        <para>For example:</para>
+        <screen>
+# lctl set_param -P osc.*.max_dirty_mb=1024
+osc.myth-OST0000-osc.max_dirty_mb=32
+osc.myth-OST0001-osc.max_dirty_mb=32
+osc.myth-OST0002-osc.max_dirty_mb=32
+osc.myth-OST0003-osc.max_dirty_mb=32
+osc.myth-OST0004-osc.max_dirty_mb=32 
+</screen>
+        <para>Use 
+        <literal>-d</literal>(only with -P) option to delete permanent
+        parameter. Syntax:</para>
+        <screen>
+lctl set_param -P -d
+<replaceable>obdtype</replaceable>.
+<replaceable>obdname</replaceable>.
+<replaceable>proc_file_name</replaceable>
+</screen>
+        <para>For example:</para>
+        <screen>
+# lctl set_param -P -d osc.*.max_dirty_mb 
+</screen>
       </section>
-    </section>
-    <section xml:id="dbdoclet.50438194_41817">
-      <title>13.9 <anchor xml:id="dbdoclet.50438194_42379" xreflabel=""/><anchor xml:id="dbdoclet.50438194_50129" xreflabel=""/>Specifying NIDs and Fail<anchor xml:id="dbdoclet.50438194_marker-1306313" xreflabel=""/>over</title>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1306315" xreflabel=""/>If a node has multiple network interfaces, it may have multiple NIDs. When a node is specified, all of its NIDs must be listed, delimited by commas (,) so other nodes can choose the NID that is appropriate for their network interfaces. When failover nodes are specified, they are delimited by a colon (:) or by repeating a keyword (--mgsnode= or --failnode=). To obtain all NIDs from a node (while LNET is running), run:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1306316" xreflabel=""/>lctl list_nids
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1306317" xreflabel=""/>This displays the server&apos;s NIDs (networks configured to work with Lustre).</para>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1306319" xreflabel=""/>This example has a combined MGS/MDT failover pair on uml1 and uml2, and a OST failover pair on uml3 and uml4. There are corresponding Elan addresses on uml1 and uml2.</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1306320" xreflabel=""/>uml1&gt; mkfs.lustre --fsname=testfs --mdt --mgs --failnode=uml2,2@elan /dev/sda1
-<anchor xml:id="dbdoclet.50438194_pgfId-1306322" xreflabel=""/>uml1&gt; mount -t lustre /dev/sda1 /mnt/test/mdt
-<anchor xml:id="dbdoclet.50438194_pgfId-1306323" xreflabel=""/>uml3&gt; mkfs.lustre --fsname=testfs --ost --failnode=uml4 --mgsnode=uml1,1@ela\
-n --mgsnode=uml2,2@elan /dev/sdb
-<anchor xml:id="dbdoclet.50438194_pgfId-1306325" xreflabel=""/>uml3&gt; mount -t lustre /dev/sdb /mnt/test/ost0
-<anchor xml:id="dbdoclet.50438194_pgfId-1306326" xreflabel=""/>client&gt; mount -t lustre uml1,1@elan:uml2,2@elan:/testfs /mnt/testfs
-<anchor xml:id="dbdoclet.50438194_pgfId-1306327" xreflabel=""/>uml1&gt; umount /mnt/mdt
-<anchor xml:id="dbdoclet.50438194_pgfId-1306328" xreflabel=""/>uml2&gt; mount -t lustre /dev/sda1 /mnt/test/mdt
-<anchor xml:id="dbdoclet.50438194_pgfId-1306329" xreflabel=""/>uml2&gt; cat /proc/fs/lustre/mds/testfs-MDT0000/recovery_status
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1306330" xreflabel=""/>Where multiple NIDs are specified, comma-separation (for example, uml2,2@elan) means that the two NIDs refer to the same host, and that Lustre needs to choose the &quot;best&quot; one for communication. Colon-separation (for example, uml1:uml2) means that the two NIDs refer to two different hosts, and should be treated as failover locations (Lustre tries the first one, and if that fails, it tries the second one.)</para>
-              <note><para>If you have an MGS or MDT configured for failover, perform these steps:</para><para> 1. On the OST, list the NIDs of all MGS nodes at mkfs time.</para><para>OST# mkfs.lustre --fsname sunfs --ost --mgsnode=10.0.0.1</para><para> --mgsnode=10.0.0.2 /dev/{device}</para><para> 2. On the client, mount the file system.</para><para>client# mount -t lustre 10.0.0.1:10.0.0.2:/sunfs /cfs/client/</para></note>
-     </section>
-    <section xml:id="dbdoclet.50438194_70905">
-      <title>13.10 Erasing a <anchor xml:id="dbdoclet.50438194_marker-1307237" xreflabel=""/>File System</title>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307240" xreflabel=""/>If you want to erase a file system, run this command on your targets:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307241" xreflabel=""/>$ &quot;mkfs.lustre -reformat&quot;
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307242" xreflabel=""/>If you are using a separate MGS and want to keep other file systems defined on that MGS, then set the writeconf flag on the MDT for that file system. The writeconf flag causes the configuration logs to be erased; they are regenerated the next time the servers start.</para>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307243" xreflabel=""/>To set the writeconf flag on the MDT:</para>
-      <orderedlist><listitem>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307244" xreflabel=""/>Unmount all clients/servers using this file system, run:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307245" xreflabel=""/>$ umount /mnt/lustre
-</screen>
-</listitem><listitem>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307246" xreflabel=""/>Erase the file system and, presumably, replace it with another file system, run:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307247" xreflabel=""/>$ mkfs.lustre -reformat --fsname spfs --mdt --mgs /dev/sda
-</screen>
-</listitem><listitem>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307248" xreflabel=""/>If you have a separate MGS (that you do not want to reformat), then add the &quot;writeconf&quot; flag to mkfs.lustre on the MDT, run:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307249" xreflabel=""/>$ mkfs.lustre --reformat --writeconf -fsname spfs --mdt \ --mgs /dev/sda
-</screen>
-</listitem></orderedlist>
-              <note><para>If you have a combined MGS/MDT, reformatting the MDT reformats the MGS as well, causing all configuration information to be lost; you can start building your new file system. Nothing needs to be done with old disks that will not be part of the new file system, just do not mount them.</para></note>
-    </section>
-    <section xml:id="dbdoclet.50438194_16954">
-      <title>13.11 Reclaiming <anchor xml:id="dbdoclet.50438194_marker-1307251" xreflabel=""/>Reserved Disk Space</title>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307254" xreflabel=""/>All current Lustre installations run the ldiskfs file system internally on service nodes. By default, ldiskfs reserves 5% of the disk space for the root user. In order to reclaim this space, run the following command on your OSSs:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307255" xreflabel=""/>tune2fs [-m reserved_blocks_percent] [device]
+      <section xml:id="dbdoclet.50438194_88217">
+        <title>Listing Parameters</title>
+        <para>To list Lustre or LNet parameters that are available to set, use
+        the 
+        <literal>lctl list_param</literal> command. For example:</para>
+        <screen>
+lctl list_param [-FR] 
+<replaceable>obdtype</replaceable>.
+<replaceable>obdname</replaceable>
+</screen>
+        <para>The following arguments are available for the 
+        <literal>lctl list_param</literal> command.</para>
+        <para>
+        <literal>-F</literal> Add '
+        <literal>/</literal>', '
+        <literal>@</literal>' or '
+        <literal>=</literal>' for directories, symlinks and writeable files,
+        respectively</para>
+        <para>
+        <literal>-R</literal> Recursively lists all parameters under the
+        specified path</para>
+        <para>For example:</para>
+        <screen>
+oss# lctl list_param obdfilter.lustre-OST0000 
 </screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307256" xreflabel=""/>You do not need to shut down Lustre before running this command or restart it afterwards.</para>
-    </section>
-    <section xml:id="dbdoclet.50438194_69998">
-      <title>13.12 Replacing an Existing <anchor xml:id="dbdoclet.50438194_marker-1307278" xreflabel=""/>OST or MDS</title>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307281" xreflabel=""/>To copy the contents of an existing OST to a new OST (or an old MDS to a new MDS), use one of these methods:</para>
-      <itemizedlist><listitem>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1307282" xreflabel=""/> Connect the old OST disk and new OST disk to a single machine, mount both, and use rsync to copy all data between the OST file systems.</para>
-        </listitem>
-</itemizedlist>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307283" xreflabel=""/>For example:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307284" xreflabel=""/>mount -t ldiskfs /dev/old /mnt/ost_old
-<anchor xml:id="dbdoclet.50438194_pgfId-1307285" xreflabel=""/>mount -t ldiskfs /dev/new /mnt/ost_new
-<anchor xml:id="dbdoclet.50438194_pgfId-1307286" xreflabel=""/>rsync -aSv /mnt/ost_old/ /mnt/ost_new
-<anchor xml:id="dbdoclet.50438194_pgfId-1307287" xreflabel=""/># note trailing slash on ost_old/
-</screen>
-      <itemizedlist><listitem>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1307288" xreflabel=""/> If you are unable to connect both sets of disk to the same computer, use rsync to copy over the network using rsh (or ssh with -e ssh):</para>
-        </listitem>
-</itemizedlist>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307289" xreflabel=""/>rsync -aSvz /mnt/ost_old/ new_ost_node:/mnt/ost_new
-</screen>
-      <itemizedlist><listitem>
-          <para><anchor xml:id="dbdoclet.50438194_pgfId-1307290" xreflabel=""/>  Use the same procedure for the MDS, with one additional step:</para>
-        </listitem>
-</itemizedlist>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307291" xreflabel=""/>cd /mnt/mds_old; getfattr -R -e base64 -d . &gt; /tmp/mdsea; \&lt;copy all MDS file\
-s as above&gt;; cd /mnt/mds_new; setfattr \--restore=/tmp/mdsea
+      </section>
+      <section xml:id="dbdoclet.50438194_63247">
+        <title>Reporting Current Parameter Values</title>
+        <para>To report current Lustre parameter values, use the 
+        <literal>lctl get_param</literal> command with this syntax:</para>
+        <screen>
+lctl get_param [-n] 
+<replaceable>obdtype</replaceable>.
+<replaceable>obdname</replaceable>.
+<replaceable>proc_file_name</replaceable>
+</screen>
+        <para>This example reports data on RPC service times.</para>
+        <screen>
+oss# lctl get_param -n ost.*.ost_io.timeouts
+service : cur 1 worst 30 (at 1257150393, 85d23h58m54s ago) 1 1 1 1 
+</screen>
+        <para>This example reports the amount of space this client has reserved
+        for writeback cache with each OST:</para>
+        <screen>
+client# lctl get_param osc.*.cur_grant_bytes
+osc.myth-OST0000-osc-ffff8800376bdc00.cur_grant_bytes=2097152
+osc.myth-OST0001-osc-ffff8800376bdc00.cur_grant_bytes=33890304
+osc.myth-OST0002-osc-ffff8800376bdc00.cur_grant_bytes=35418112
+osc.myth-OST0003-osc-ffff8800376bdc00.cur_grant_bytes=2097152
+osc.myth-OST0004-osc-ffff8800376bdc00.cur_grant_bytes=33808384
 </screen>
+      </section>
     </section>
-    <section xml:id="dbdoclet.50438194_30872">
-      <title>13.13 Identifying To Which Lustre File an OST Object Belongs</title>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307353" xreflabel=""/>Use this procedure to identify the file containing a given object on a given OST.</para>
-      <orderedlist><listitem>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307357" xreflabel=""/>On the OST (as root), run debugfs to display the file identifier (FID) of the file associated with the object.</para>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307358" xreflabel=""/>For example, if the object is 34976 on /dev/lustre/ost_test2, the debug command is:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307359" xreflabel=""/># debugfs -c -R &quot;stat /O/0/d$((34976 %32))/34976&quot; /dev/lustre/ost_test2 
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307360" xreflabel=""/>The command output is:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307361" xreflabel=""/>debugfs 1.41.5.sun2 (23-Apr-2009)
-<anchor xml:id="dbdoclet.50438194_pgfId-1307362" xreflabel=""/>/dev/lustre/ost_test2: catastrophic mode - not reading inode or group bitma\
-ps 
-<anchor xml:id="dbdoclet.50438194_pgfId-1307363" xreflabel=""/>Inode: 352365   Type: regular    Mode:  0666   Flags: 0x80000
-<anchor xml:id="dbdoclet.50438194_pgfId-1307364" xreflabel=""/>Generation: 1574463214    Version: 0xea020000:00000000
-<anchor xml:id="dbdoclet.50438194_pgfId-1307365" xreflabel=""/>User:   500   Group:   500   Size: 260096
-<anchor xml:id="dbdoclet.50438194_pgfId-1307366" xreflabel=""/>File ACL: 0    Directory ACL: 0
-<anchor xml:id="dbdoclet.50438194_pgfId-1307367" xreflabel=""/>Links: 1   Blockcount: 512
-<anchor xml:id="dbdoclet.50438194_pgfId-1307368" xreflabel=""/>Fragment:  Address: 0    Number: 0    Size: 0
-<anchor xml:id="dbdoclet.50438194_pgfId-1307369" xreflabel=""/>ctime: 0x4a216b48:00000000 -- Sat May 30 13:22:16 2009
-<anchor xml:id="dbdoclet.50438194_pgfId-1307370" xreflabel=""/>atime: 0x4a216b48:00000000 -- Sat May 30 13:22:16 2009
-<anchor xml:id="dbdoclet.50438194_pgfId-1307371" xreflabel=""/>mtime: 0x4a216b48:00000000 -- Sat May 30 13:22:16 2009
-<anchor xml:id="dbdoclet.50438194_pgfId-1307372" xreflabel=""/>crtime: 0x4a216b3c:975870dc -- Sat May 30 13:22:04 2009
-<anchor xml:id="dbdoclet.50438194_pgfId-1307373" xreflabel=""/>Size of extra inode fields: 24
-<anchor xml:id="dbdoclet.50438194_pgfId-1307374" xreflabel=""/>Extended attributes stored in inode body: 
-<anchor xml:id="dbdoclet.50438194_pgfId-1307375" xreflabel=""/>fid = &quot;e2 00 11 00 00 00 00 00 25 43 c1 87 00 00 00 00 a0 88 00 00 00 00 00 \
-00 00 00 00 00 00 00 00 00 &quot; (32)
-<anchor xml:id="dbdoclet.50438194_pgfId-1307376" xreflabel=""/>BLOCKS:
-<anchor xml:id="dbdoclet.50438194_pgfId-1307377" xreflabel=""/>(0-63):47968-48031
-<anchor xml:id="dbdoclet.50438194_pgfId-1307378" xreflabel=""/>TOTAL: 64
-</screen>
-</listitem><listitem>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307379" xreflabel=""/>Note the FID's EA and apply it to the osd_inode_id mapping.</para>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307380" xreflabel=""/>In this example, the FID's EA is:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307381" xreflabel=""/>e2001100000000002543c18700000000a0880000000000000000000000000000
-<anchor xml:id="dbdoclet.50438194_pgfId-1307382" xreflabel=""/>struct osd_inode_id { 
-<anchor xml:id="dbdoclet.50438194_pgfId-1307383" xreflabel=""/>__u64 oii_ino; /* inode number */ 
-<anchor xml:id="dbdoclet.50438194_pgfId-1307384" xreflabel=""/>__u32 oii_gen; /* inode generation */ 
-<anchor xml:id="dbdoclet.50438194_pgfId-1307385" xreflabel=""/>__u32 oii_pad; /* alignment padding */ 
-<anchor xml:id="dbdoclet.50438194_pgfId-1307386" xreflabel=""/>};
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307387" xreflabel=""/>After swapping, you get an inode number of 0x001100e2 and generation of 0.</para>
-</listitem><listitem>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307388" xreflabel=""/>On the MDT (as root), use debugfs to find the file associated with the inode.</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307389" xreflabel=""/># debugfs -c -R &quot;ncheck 0x001100e2&quot; /dev/lustre/mdt_test 
-</screen>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307390" xreflabel=""/>Here is the command output:</para>
-      <screen><anchor xml:id="dbdoclet.50438194_pgfId-1307391" xreflabel=""/>debugfs 1.41.5.sun2 (23-Apr-2009)
-<anchor xml:id="dbdoclet.50438194_pgfId-1307392" xreflabel=""/>/dev/lustre/mdt_test: catastrophic mode - not reading inode or group bitmap\
+  </section>
+  <section xml:id="dbdoclet.50438194_41817">
+    <title>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>failover</secondary>
+    </indexterm>Specifying NIDs and Failover</title>
+    <para>If a node has multiple network interfaces, it may have multiple NIDs,
+    which must all be identified so other nodes can choose the NID that is
+    appropriate for their network interfaces. Typically, NIDs are specified in
+    a list delimited by commas (
+    <literal>,</literal>). However, when failover nodes are specified, the NIDs
+    are delimited by a colon (
+    <literal>:</literal>) or by repeating a keyword such as 
+    <literal>--mgsnode=</literal> or 
+    <literal>--servicenode=</literal>).</para>
+    <para>To display the NIDs of all servers in networks configured to work
+    with the Lustre file system, run (while LNet is running):</para>
+    <screen>
+lctl list_nids
+</screen>
+    <para>In the example below, 
+    <literal>mds0</literal> and 
+    <literal>mds1</literal> are configured as a combined MGS/MDT failover pair
+    and 
+    <literal>oss0</literal> and 
+    <literal>oss1</literal> are configured as an OST failover pair. The Ethernet
+    address for 
+    <literal>mds0</literal> is 192.168.10.1, and for 
+    <literal>mds1</literal> is 192.168.10.2. The Ethernet addresses for 
+    <literal>oss0</literal> and 
+    <literal>oss1</literal> are 192.168.10.20 and 192.168.10.21
+    respectively.</para>
+    <screen>
+mds0# mkfs.lustre --fsname=testfs --mdt --mgs \
+        --servicenode=192.168.10.2@tcp0 \
+        -–servicenode=192.168.10.1@tcp0 /dev/sda1
+mds0# mount -t lustre /dev/sda1 /mnt/test/mdt
+oss0# mkfs.lustre --fsname=testfs --servicenode=192.168.10.20@tcp0 \
+        --servicenode=192.168.10.21 --ost --index=0 \
+        --mgsnode=192.168.10.1@tcp0 --mgsnode=192.168.10.2@tcp0 \
+        /dev/sdb
+oss0# mount -t lustre /dev/sdb /mnt/test/ost0
+client# mount -t lustre 192.168.10.1@tcp0:192.168.10.2@tcp0:/testfs \
+        /mnt/testfs
+mds0# umount /mnt/mdt
+mds1# mount -t lustre /dev/sda1 /mnt/test/mdt
+mds1# lctl get_param mdt.testfs-MDT0000.recovery_status
+</screen>
+    <para>Where multiple NIDs are specified separated by commas (for example, 
+    <literal>10.67.73.200@tcp,192.168.10.1@tcp</literal>), the two NIDs refer
+    to the same host, and the Lustre software chooses the 
+    <emphasis>best</emphasis> one for communication. When a pair of NIDs is
+    separated by a colon (for example, 
+    <literal>10.67.73.200@tcp:10.67.73.201@tcp</literal>), the two NIDs refer
+    to two different hosts and are treated as a failover pair (the Lustre
+    software tries the first one, and if that fails, it tries the second
+    one.)</para>
+    <para>Two options to 
+    <literal>mkfs.lustre</literal> can be used to specify failover nodes.
+    Introduced in Lustre software release 2.0, the 
+    <literal>--servicenode</literal> option is used to specify all service NIDs,
+    including those for primary nodes and failover nodes. When the 
+    <literal>--servicenode</literal> option is used, the first service node to
+    load the target device becomes the primary service node, while nodes
+    corresponding to the other specified NIDs become failover locations for the
+    target device. An older option, 
+    <literal>--failnode</literal>, specifies just the NIDS of failover nodes.
+    For more information about the 
+    <literal>--servicenode</literal> and 
+    <literal>--failnode</literal> options, see 
+    <xref xmlns:xlink="http://www.w3.org/1999/xlink"
+    linkend="configuringfailover" />.</para>
+  </section>
+  <section xml:id="dbdoclet.50438194_70905">
+    <title>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>erasing a file system</secondary>
+    </indexterm>Erasing a File System</title>
+    <para>If you want to erase a file system and permanently delete all the
+    data in the file system, run this command on your targets:</para>
+    <screen>
+$ "mkfs.lustre --reformat"
+</screen>
+    <para>If you are using a separate MGS and want to keep other file systems
+    defined on that MGS, then set the 
+    <literal>writeconf</literal> flag on the MDT for that file system. The 
+    <literal>writeconf</literal> flag causes the configuration logs to be
+    erased; they are regenerated the next time the servers start.</para>
+    <para>To set the 
+    <literal>writeconf</literal> flag on the MDT:</para>
+    <orderedlist>
+      <listitem>
+        <para>Unmount all clients/servers using this file system, run:</para>
+        <screen>
+$ umount /mnt/lustre
+</screen>
+      </listitem>
+      <listitem>
+        <para>Permanently erase the file system and, presumably, replace it
+        with another file system, run:</para>
+        <screen>
+$ mkfs.lustre --reformat --fsname spfs --mgs --mdt --index=0 /dev/
+<emphasis>{mdsdev}</emphasis>
+</screen>
+      </listitem>
+      <listitem>
+        <para>If you have a separate MGS (that you do not want to reformat),
+        then add the 
+        <literal>--writeconf</literal> flag to 
+        <literal>mkfs.lustre</literal> on the MDT, run:</para>
+        <screen>
+$ mkfs.lustre --reformat --writeconf --fsname spfs --mgsnode=
+<replaceable>mgs_nid</replaceable> --mdt --index=0 
+<replaceable>/dev/mds_device</replaceable>
+</screen>
+      </listitem>
+    </orderedlist>
+    <note>
+      <para>If you have a combined MGS/MDT, reformatting the MDT reformats the
+      MGS as well, causing all configuration information to be lost; you can
+      start building your new file system. Nothing needs to be done with old
+      disks that will not be part of the new file system, just do not mount
+      them.</para>
+    </note>
+  </section>
+  <section xml:id="dbdoclet.50438194_16954">
+    <title>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>reclaiming space</secondary>
+    </indexterm>Reclaiming Reserved Disk Space</title>
+    <para>All current Lustre installations run the ldiskfs file system
+    internally on service nodes. By default, ldiskfs reserves 5% of the disk
+    space to avoid file system fragmentation. In order to reclaim this space,
+    run the following command on your OSS for each OST in the file
+    system:</para>
+    <screen>
+tune2fs [-m reserved_blocks_percent] /dev/
+<emphasis>{ostdev}</emphasis>
+</screen>
+    <para>You do not need to shut down Lustre before running this command or
+    restart it afterwards.</para>
+    <warning>
+      <para>Reducing the space reservation can cause severe performance
+      degradation as the OST file system becomes more than 95% full, due to
+      difficulty in locating large areas of contiguous free space. This
+      performance degradation may persist even if the space usage drops below
+      95% again. It is recommended NOT to reduce the reserved disk space below
+      5%.</para>
+    </warning>
+  </section>
+  <section xml:id="dbdoclet.50438194_69998">
+    <title>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>replacing an OST or MDS</secondary>
+    </indexterm>Replacing an Existing OST or MDT</title>
+    <para>To copy the contents of an existing OST to a new OST (or an old MDT
+    to a new MDT), follow the process for either OST/MDT backups in 
+    <xref linkend='dbdoclet.backup_device' />or 
+    <xref linkend='dbdoclet.backup_target_filesystem' />.
+    For more information on removing a MDT, see 
+    <xref linkend='dbdoclet.rmremotedir' />.</para>
+  </section>
+  <section xml:id="dbdoclet.50438194_30872">
+    <title>
+    <indexterm>
+      <primary>operations</primary>
+      <secondary>identifying OSTs</secondary>
+    </indexterm>Identifying To Which Lustre File an OST Object Belongs</title>
+    <para>Use this procedure to identify the file containing a given object on
+    a given OST.</para>
+    <orderedlist>
+      <listitem>
+        <para>On the OST (as root), run 
+        <literal>debugfs</literal> to display the file identifier (
+        <literal>FID</literal>) of the file associated with the object.</para>
+        <para>For example, if the object is 
+        <literal>34976</literal> on 
+        <literal>/dev/lustre/ost_test2</literal>, the debug command is: 
+        <screen>
+# debugfs -c -R "stat /O/0/d$((34976 % 32))/34976" /dev/lustre/ost_test2 
+</screen></para>
+        <para>The command output is: 
+        <screen>
+debugfs 1.42.3.wc3 (15-Aug-2012)
+/dev/lustre/ost_test2: catastrophic mode - not reading inode or group bitmaps
+Inode: 352365   Type: regular    Mode:  0666   Flags: 0x80000
+Generation: 2393149953    Version: 0x0000002a:00005f81
+User:  1000   Group:  1000   Size: 260096
+File ACL: 0    Directory ACL: 0
+Links: 1   Blockcount: 512
+Fragment:  Address: 0    Number: 0    Size: 0
+ctime: 0x4a216b48:00000000 -- Sat May 30 13:22:16 2009
+atime: 0x4a216b48:00000000 -- Sat May 30 13:22:16 2009
+mtime: 0x4a216b48:00000000 -- Sat May 30 13:22:16 2009
+crtime: 0x4a216b3c:975870dc -- Sat May 30 13:22:04 2009
+Size of extra inode fields: 24
+Extended attributes stored in inode body:
+  fid = "b9 da 24 00 00 00 00 00 6a fa 0d 3f 01 00 00 00 eb 5b 0b 00 00 00 0000
+00 00 00 00 00 00 00 00 " (32)
+  fid: objid=34976 seq=0 parent=[0x24dab9:0x3f0dfa6a:0x0] stripe=1
+EXTENTS:
+(0-64):4620544-4620607
+</screen></para>
+      </listitem>
+      <listitem>
+        <para>For Lustre software release 2.x file systems, the parent FID will
+        be of the form [0x200000400:0x122:0x0] and can be resolved directly
+        using the 
+        <literal>lfs fid2path [0x200000404:0x122:0x0]
+        /mnt/lustre</literal> command on any Lustre client, and the process is
+        complete.</para>
+      </listitem>
+      <listitem>
+        <para>In this example the parent inode FID is an upgraded 1.x inode
+        (due to the first part of the FID being below 0x200000400), the MDT
+        inode number is 
+        <literal>0x24dab9</literal> and generation 
+        <literal>0x3f0dfa6a</literal> and the pathname needs to be resolved
+        using 
+        <literal>debugfs</literal>.</para>
+      </listitem>
+      <listitem>
+        <para>On the MDS (as root), use 
+        <literal>debugfs</literal> to find the file associated with the
+        inode:</para>
+        <screen>
+# debugfs -c -R "ncheck 0x24dab9" /dev/lustre/mdt_test 
+</screen>
+        <para>Here is the command output:</para>
+        <screen>
+debugfs 1.42.3.wc2 (15-Aug-2012)
+/dev/lustre/mdt_test: catastrophic mode - not reading inode or group bitmap\
 s
-<anchor xml:id="dbdoclet.50438194_pgfId-1307393" xreflabel=""/>Inode      Pathname
-<anchor xml:id="dbdoclet.50438194_pgfId-1307394" xreflabel=""/>1114338    /ROOT/brian-laptop-guest/clients/client11/~dmtmp/PWRPNT/ZD16.BMP
-</screen>
-</listitem></orderedlist>
-      <para><anchor xml:id="dbdoclet.50438194_pgfId-1307395" xreflabel=""/>The command lists the inode and pathname associated with the object.</para>
-      <note><para>Debugfs&apos; &apos;&apos;ncheck&apos;&apos; is a brute-force search that may take a long time to complete.</para></note>
-      <note><para>To find the Lustre file from a disk LBA, follow the steps listed in the document at this URL: <emphasis>http://smartmontools.sourceforge.net/badblockhowto.html. </emphasis> Then, follow the steps above to resolve the Lustre filename.</para></note>
-      
+Inode      Pathname
+2415289    /ROOT/brian-laptop-guest/clients/client11/~dmtmp/PWRPNT/ZD16.BMP
+</screen>
+      </listitem>
+    </orderedlist>
+    <para>The command lists the inode and pathname associated with the
+    object.</para>
+    <note>
+      <para>
+      <literal>Debugfs</literal>' ''ncheck'' is a brute-force search that may
+      take a long time to complete.</para>
+    </note>
+    <note>
+      <para>To find the Lustre file from a disk LBA, follow the steps listed in
+      the document at this URL: 
+      <link xl:href="http://smartmontools.sourceforge.net/badblockhowto.html">
+      http://smartmontools.sourceforge.net/badblockhowto.html</link>. Then,
+      follow the steps above to resolve the Lustre filename.</para>
+    </note>
   </section>
 </chapter>