Whamcloud - gitweb
LUDOC-114 lnet: LNET/LND credits and flow control
[doc/manual.git] / ConfiguringLustre.xml
index 343da9f..bbc466a 100644 (file)
@@ -1,8 +1,5 @@
-<?xml version='1.0' encoding='UTF-8'?>
-<!-- This document was created with Syntext Serna Free. --><chapter xmlns="http://docbook.org/ns/docbook" xmlns:xl="http://www.w3.org/1999/xlink" version="5.0" xml:lang="en-US" xml:id="configuringlustre">
-  <info>
-    <title xml:id="configuringlustre.title">Configuring Lustre</title>
-  </info>
+<?xml version='1.0' encoding='UTF-8'?><chapter xmlns="http://docbook.org/ns/docbook" xmlns:xl="http://www.w3.org/1999/xlink" version="5.0" xml:lang="en-US" xml:id="configuringlustre">
+  <title xml:id="configuringlustre.title">Configuring Lustre</title>
   <para>This chapter shows how to configure a simple Lustre system comprised of a combined MGS/MDT, an OST and a client. It includes:</para>
   <itemizedlist>
     <listitem>
     </listitem>
   </itemizedlist>
   <section xml:id="dbdoclet.50438267_50692">
-    <title>10.1 Configuring a Simple Lustre File System</title>
-    <para>A Lustre system can be set up in a variety of configurations by using the administrative utilities provided with Lustre. The procedure below shows how to to configure a simple Lustre file system consisting of a combined MGS/MDS, one OSS with two OSTs, and a client. For an overview of the entire Lustre installation procedure, see <xref linkend="installoverview"/>.</para>
+      <title>
+          <indexterm><primary>Lustre</primary><secondary>configuring</secondary></indexterm>
+          Configuring a Simple Lustre File System</title>
+    <para>A Lustre system can be set up in a variety of configurations by using the administrative utilities provided with Lustre. The procedure below shows how to configure a simple Lustre file system consisting of a combined MGS/MDS, one OSS with two OSTs, and a client. For an overview of the entire Lustre installation procedure, see <xref linkend="installoverview"/>.</para>
     <para>This configuration procedure assumes you have completed the following:</para>
     <itemizedlist>
       <listitem>
@@ -25,7 +24,7 @@
           </emphasis>. For more information about hardware requirements, see <xref linkend="settinguplustresystem"/>.</para>
       </listitem>
       <listitem>
-        <para><emphasis><emphasis role="bold">Downloaded and installed the Lustre software</emphasis>.</emphasis>  For more information about preparing for and installing the Lustre software, see <xref linkend="installinglustre"/>.</para>
+        <para><emphasis role="bold">Downloaded and installed the Lustre software.</emphasis>  For more information about preparing for and installing the Lustre software, see <xref linkend="installinglustre"/>.</para>
       </listitem>
     </itemizedlist>
     <para>The following optional steps should also be completed, if needed, before the Lustre software is configured:</para>
         <para><emphasis>Set up network interface bonding on Ethernet interfaces.</emphasis>  For information about setting up network interface bonding, see <xref linkend="settingupbonding"/>.</para>
       </listitem>
       <listitem>
-        <para><emphasis>Set</emphasis>lnet<emphasis>module parameters to specify how Lustre Networking (LNET) is to be configured to work with Lustre and test the LNET configuration.</emphasis>  LNET will, by default, use the first TCP/IP interface it discovers on a system. If this network configuration is sufficient, you do not need to configure LNET. LNET configuration is required if you are using Infiniband or multiple Ethernet interfaces.</para>
+        <para><emphasis>Set</emphasis> lnet <emphasis>module parameters to specify how Lustre
+            Networking (LNET) is to be configured to work with Lustre and test the LNET
+            configuration.</emphasis> LNET will, by default, use the first TCP/IP interface it
+          discovers on a system. If this network configuration is sufficient, you do not need to
+          configure LNET. LNET configuration is required if you are using InfiniBand or multiple
+          Ethernet interfaces.</para>
       </listitem>
     </itemizedlist>
     <para>For information about configuring LNET, see <xref linkend="configuringlnet"/>. For information about testing LNET, see <xref linkend="lnetselftest"/>.</para>
     <itemizedlist>
       <listitem>
-        <para><emphasis>Run the benchmark script <literal>sgpdd_survey</literal> to determine baseline performance of your hardware.</emphasis>  Benchmarking your hardware will simplify debugging performance issues that are unrelated to Lustre and ensure you are getting the best possible performance with your installation. For information about running sgpdd_survey, see <xref linkend="benchmarkingtests"/>.</para>
+        <para><emphasis>Run the benchmark script <literal>sgpdd-survey</literal> to determine
+            baseline performance of your hardware.</emphasis> Benchmarking your hardware will
+          simplify debugging performance issues that are unrelated to Lustre and ensure you are
+          getting the best possible performance with your installation. For information about
+          running <literal>sgpdd-survey</literal>, see <xref linkend="benchmarkingtests"/>.</para>
       </listitem>
     </itemizedlist>
     <note>
-      <para>
-The <literal>sgpdd_survey</literal> script overwrites the device being tested so it must be run before the OSTs are configured.</para>
+      <para>The <literal>sgpdd-survey</literal> script overwrites the device being tested so it must
+        be run before the OSTs are configured.</para>
     </note>
     <para>To configure a simple Lustre file system, complete these steps:</para>
     <orderedlist>
       <listitem>
-        <para><emphasis role="bold">Create</emphasis> a combined MGS/MDT file system on a block device. On the MDS node, run:</para>
-        <screen>mkfs.lustre --fsname=&lt;<emphasis>fsname</emphasis>&gt; --mgs --mdt &lt;<emphasis>block device name</emphasis>&gt;
-</screen>
+        <para>Create a combined MGS/MDT file system on a block device. On the MDS node, run:</para>
+        <screen>mkfs.lustre --fsname=<replaceable>fsname</replaceable> --mgs --mdt --index=0 <replaceable>/dev/block_device</replaceable></screen>
         <para>The default file system name (<literal>fsname</literal>) is <literal>lustre</literal>.</para>
         <note>
-          <para>If you plan to generate multiple file systems, the MGS should be created separately on its own dedicated block device, by running:</para>
-          <para> mkfs.lustre --fsname=&lt;<emphasis>fsname</emphasis>&gt; --mgs &lt;<emphasis>block device name</emphasis>&gt;</para>
+          <para>If you plan to create multiple file systems, the MGS should be created separately on its own dedicated block device, by running:</para>
+          <screen>mkfs.lustre --fsname=<replaceable>fsname</replaceable> --mgs <replaceable>/dev/block_device</replaceable></screen>
+          <para>See <xref linkend="dbdoclet.50438194_88063"/> for more details.</para> 
         </note>
       </listitem>
+      <listitem xml:id="dbdoclet.addmdtindex">
+               <para>Optional for Lustre 2.4 and later. Add in additional MDTs.</para>
+        <screen>mkfs.lustre --fsname=<replaceable>fsname</replaceable> --mgsnode=<replaceable>nid</replaceable> --mdt --index=1 <replaceable>/dev/block_device</replaceable></screen>
+               <note><para>Up to 4095 additional MDTs can be added.</para></note>
+      </listitem>
       <listitem>
-        <para><emphasis role="bold">Mount the combined MGS/MDT file system on the block device. On the MDS node, run:</emphasis></para>
-        <screen>mount -t lustre &lt;<emphasis>block device name</emphasis>&gt; &lt;<emphasis>mount point</emphasis>&gt;
-</screen>
+        <para>Mount the combined MGS/MDT file system on the block device. On the MDS node, run:</para>
+        <screen>mount -t lustre <replaceable>/dev/block_device</replaceable> <replaceable>/mount_point</replaceable></screen>
         <note>
-          <para>If you have created and MGS and an MDT on separate block devices, mount them both.</para>
+          <para>If you have created an MGS and an MDT on separate block devices, mount them both.</para>
         </note>
       </listitem>
       <listitem xml:id="dbdoclet.50438267_pgfId-1290915">
-        <para><emphasis role="bold">Create the OST. On the OSS node, run:</emphasis></para>
-        <screen>mkfs.lustre --ost --fsname=&lt;<emphasis>fsname</emphasis>&gt; --mgsnode=&lt;<emphasis>NID</emphasis>&gt; &lt;<emphasis>block device name</emphasis>&gt;
-</screen>
+        <para>Create the OST. On the OSS node, run:</para>
+        <screen>mkfs.lustre --fsname=<replaceable>fsname</replaceable> --mgsnode=<replaceable>MGS_NID</replaceable> --ost --index=<replaceable>OST_index</replaceable> <replaceable>/dev/block_device</replaceable></screen>
         <para>When you create an OST, you are formatting a <literal>ldiskfs</literal> file system on a block storage device like you would with any local file system.</para>
         <para>You can have as many OSTs per OSS as the hardware or drivers allow. For more information about storage and memory requirements for a Lustre file system, see <xref linkend="settinguplustresystem"/>.</para>
         <para>You can only configure one OST per block device. You should create an OST that uses the raw block device and does not use partitioning.</para>
+        <para>You should specify the OST index number at format time in order to simplify translating the OST number in error messages or file striping to the OSS node and block device later on.</para>
         <para>If you are using block devices that are accessible from multiple OSS nodes, ensure that you mount the OSTs from only one OSS node at at time. It is strongly recommended that multiple-mount protection be enabled for such devices to prevent serious data corruption. For more information about multiple-mount protection, see <xref linkend="managingfailover"/>.</para>
         <note>
-          <para>
-Lustre currently supports block devices up to 16 TB on OEL 5/RHEL 5 (up to 8 TB on other distributions). If the device size is only slightly larger that 16 TB, it is recommended that you limit the file system size to 16 TB at format time. If the size is significantly larger than 16 TB, you should reconfigure the storage into devices smaller than 16 TB. We recommend that you not place partitions on top of RAID 5/6 block devices due to negative impacts on performance.</para>
+          <para>Lustre currently supports block devices up to 128 TB on Red Hat Enterprise Linux 5
+            and 6 (up to 8 TB on other distributions). If the device size is only slightly larger
+            that 16 TB, it is recommended that you limit the file system size to 16 TB at format
+            time. We recommend that you not place DOS partitions on top of RAID 5/6 block devices
+            due to negative impacts on performance, but instead format the whole disk for the file
+            system.</para>
         </note>
       </listitem>
       <listitem xml:id="dbdoclet.50438267_pgfId-1293955">
-        <para><emphasis role="bold">Mount the OST. On the OSS node where the OST was created, run:</emphasis></para>
-        <screen>mount -t lustre <emphasis>&lt;block device name&gt; &lt;mount point&gt;</emphasis></screen>
+        <para>Mount the OST. On the OSS node where the OST was created, run:</para>
+        <screen>mount -t lustre <replaceable>/dev/block_device</replaceable> <replaceable>/mount_point</replaceable></screen>
         <note>
           <para>
-              To create additional OSTs, repeat <xref linkend="dbdoclet.50438267_pgfId-1290915"/>Step 3 and <xref linkend="dbdoclet.50438267_pgfId-1293955"/>Step 4.</para>
+              To create additional OSTs, repeat Step <xref linkend="dbdoclet.50438267_pgfId-1290915"/> and Step <xref linkend="dbdoclet.50438267_pgfId-1293955"/>, specifying the next higher OST index number.</para>
         </note>
       </listitem>
       <listitem xml:id="dbdoclet.50438267_pgfId-1290934">
-        <para><emphasis role="bold">Mount the Lustre file system on the client. On the client node, run:</emphasis></para>
-        <screen>mount -t lustre &lt;<emphasis>MGS node</emphasis>&gt;:/&lt;<emphasis>fsname</emphasis>&gt; &lt;<emphasis>mount point</emphasis>&gt; 
+        <para>Mount the Lustre file system on the client. On the client node, run:</para>
+        <screen>mount -t lustre <replaceable>MGS_node</replaceable>:/<replaceable>fsname</replaceable> <replaceable>/mount_point</replaceable> 
 </screen>
         <note>
-          <para>
-        To create additional clients, repeat <xref linkend="dbdoclet.50438267_pgfId-1290934"/>Step 5.</para>
+          <para>To create additional clients, repeat Step <xref linkend="dbdoclet.50438267_pgfId-1290934"/>.</para>
+        </note>
+        <note>
+            <para>If you have a problem mounting the file system, check the syslogs on the client and all the servers for errors and also check the network settings. A common issue with newly-installed systems is that <literal>hosts.deny</literal> or firewall rules may prevent connections on port 988.</para>
         </note>
       </listitem>
       <listitem>
-        <para><note>
-            <para>
-If you have a problem mounting the file system, check the syslogs on the client and all the servers for errors and also check the network settings. A common issue with newly-installed systems is that hosts.deny or firewall rules may prevent connections on port 988.</para>
-          </note><emphasis role="bold">Verify that the file system started and is working correctly. Do this by running the <literal>lfs</literal><literal> df</literal>, <literal>dd</literal> and <literal>ls</literal> commands on the client node.</emphasis></para>
+          <para>Verify that the file system started and is working correctly. Do this by running <literal>lfs df</literal>, <literal>dd</literal> and <literal>ls</literal> commands on the client node.</para>
       </listitem>
       <listitem>
-        <para><emphasis role="bold"><emphasis><emphasis role="italic">(Optional)</emphasis> Run benchmarking to</emphasis>ols to validate the performance of hardware and software layers in the cluster. Available tools include:</emphasis></para>
+        <para><emphasis>(Optional)</emphasis> Run benchmarking tools to validate the performance of hardware and software layers in the cluster. Available tools include:</para>
         <itemizedlist>
           <listitem>
-            <para><literal>obdfilter_survey</literal>  - Characterizes the storage performance of a Lustre file system. For details, see <xref linkend="dbdoclet.50438212_40624"/>.</para>
+            <para><literal>obdfilter-survey</literal> - Characterizes the storage performance of a
+              Lustre file system. For details, see <xref linkend="dbdoclet.50438212_26516"/>.</para>
           </listitem>
           <listitem>
-            <para><literal>ost_survey</literal>  - Performs I/O against OSTs to detect anomalies between otherwise identical disk subsystems. For details, see <xref linkend="dbdoclet.50438212_85136"/>.</para>
+            <para><literal>ost-survey</literal> - Performs I/O against OSTs to detect anomalies
+              between otherwise identical disk subsystems. For details, see <xref
+                linkend="dbdoclet.50438212_85136"/>.</para>
           </listitem>
         </itemizedlist>
       </listitem>
     </orderedlist>
     <section remap="h3">
-      <title>10.1.1 Simple Lustre <anchor xml:id="dbdoclet.50438267_marker-1290955" xreflabel=""/>Configuration Example</title>
+        <title>
+            <indexterm><primary>Lustre</primary><secondary>configuring</secondary><tertiary>simple example</tertiary></indexterm>
+            Simple Lustre Configuration Example</title>
       <para>To see the steps in a simple Lustre configuration, follow this example in which a combined MGS/MDT and two OSTs are created. Three block devices are used, one for the combined MGS/MDS node and one for each OSS node. Common parameters used in the example are listed below, along with individual node parameters.</para>
       <informaltable frame="all">
         <tgroup cols="4">
@@ -152,7 +172,7 @@ If you have a problem mounting the file system, check the syslogs on the client
                 <para> <literal>10.2.0.1@tcp0</literal></para>
               </entry>
               <entry>
-                <para> Node for the combined MGS/MDS</para>
+                <para>Node for the combined MGS/MDS</para>
               </entry>
             </row>
             <row>
@@ -166,7 +186,7 @@ If you have a problem mounting the file system, check the syslogs on the client
                 <para><literal> temp</literal></para>
               </entry>
               <entry>
-                <para> Name of the Lustre file system</para>
+                <para>Name of the Lustre file system</para>
               </entry>
             </row>
             <row>
@@ -180,7 +200,7 @@ If you have a problem mounting the file system, check the syslogs on the client
                 <para> <literal>TCP/IP</literal></para>
               </entry>
               <entry>
-                <para> Network type used for Lustre file system temp</para>
+                <para>Network type used for Lustre file system temp</para>
               </entry>
             </row>
           </tbody>
@@ -219,10 +239,10 @@ If you have a problem mounting the file system, check the syslogs on the client
                 <para> <emphasis role="bold">MGS/MDS node</emphasis></para>
               </entry>
               <entry>
-                <para> <literal>mdt1</literal></para>
+                <para> <literal>mdt0</literal></para>
               </entry>
               <entry>
-                <para> MDS in Lustre file system temp</para>
+                <para>MDS in Lustre file system temp</para>
               </entry>
             </row>
             <row>
@@ -236,7 +256,7 @@ If you have a problem mounting the file system, check the syslogs on the client
                 <para> <literal>/dev/sdb</literal></para>
               </entry>
               <entry>
-                <para> Block device for the combined MGS/MDS node</para>
+                <para>Block device for the combined MGS/MDS node</para>
               </entry>
             </row>
             <row>
@@ -250,7 +270,7 @@ If you have a problem mounting the file system, check the syslogs on the client
                 <para> <literal>/mnt/mdt</literal></para>
               </entry>
               <entry>
-                <para> Mount point for the <literal>mdt1</literal> block device (<literal>/dev/sdb</literal>) on the MGS/MDS node</para>
+                <para>Mount point for the <literal>mdt0</literal> block device (<literal>/dev/sdb</literal>) on the MGS/MDS node</para>
               </entry>
             </row>
             <row>
@@ -266,7 +286,7 @@ If you have a problem mounting the file system, check the syslogs on the client
                 <para> <emphasis role="bold">OSS node</emphasis></para>
               </entry>
               <entry>
-                <para><literal> oss1</literal></para>
+                <para><literal> oss0</literal></para>
               </entry>
               <entry>
                 <para>First OSS node in Lustre file system temp</para>
@@ -280,7 +300,7 @@ If you have a problem mounting the file system, check the syslogs on the client
                 <para> <emphasis role="bold">OST</emphasis></para>
               </entry>
               <entry>
-                <para><literal> ost1</literal></para>
+                <para><literal>ost0</literal></para>
               </entry>
               <entry>
                 <para>First OST in Lustre file system temp</para>
@@ -297,7 +317,7 @@ If you have a problem mounting the file system, check the syslogs on the client
                 <para> <literal>/dev/sdc</literal></para>
               </entry>
               <entry>
-                <para>Block device for the first OSS node (<literal>oss1</literal>)</para>
+                <para>Block device for the first OSS node (<literal>oss0</literal>)</para>
               </entry>
             </row>
             <row>
@@ -308,10 +328,10 @@ If you have a problem mounting the file system, check the syslogs on the client
                 <para> <emphasis role="bold">mount point</emphasis></para>
               </entry>
               <entry>
-                <para> <literal>/mnt/ost1</literal></para>
+                <para> <literal>/mnt/ost0</literal></para>
               </entry>
               <entry>
-                <para> Mount point for the <literal>ost1</literal> block device (<literal>/dev/sdc</literal>) on the <literal>oss1</literal> node</para>
+                <para> Mount point for the <literal>ost0</literal> block device (<literal>/dev/sdc</literal>) on the <literal>oss1</literal> node</para>
               </entry>
             </row>
             <row>
@@ -321,13 +341,13 @@ If you have a problem mounting the file system, check the syslogs on the client
             </row>
             <row>
               <entry>
-                <para> &#160;</para>
+                <para> </para>
               </entry>
               <entry>
                 <para> <emphasis role="bold">OSS node</emphasis></para>
               </entry>
               <entry>
-                <para><literal>oss2</literal></para>
+                <para><literal>oss1</literal></para>
               </entry>
               <entry>
                 <para>Second OSS node in Lustre file system temp</para>
@@ -335,22 +355,20 @@ If you have a problem mounting the file system, check the syslogs on the client
             </row>
             <row>
               <entry>
-                <para> &#160;</para>
+                <para> </para>
               </entry>
               <entry>
                 <para> <emphasis role="bold">OST</emphasis></para>
               </entry>
               <entry>
-                <para> <literal>ost2</literal></para>
+                <para> <literal>ost1</literal></para>
               </entry>
               <entry>
                 <para>Second OST in Lustre file system temp</para>
               </entry>
             </row>
             <row>
-              <entry>
-                <para> &#160;</para>
-              </entry>
+              <entry/>
               <entry>
                 <para> <emphasis role="bold">block device</emphasis></para>
               </entry>
@@ -358,21 +376,21 @@ If you have a problem mounting the file system, check the syslogs on the client
                 <para><literal>/dev/sdd</literal></para>
               </entry>
               <entry>
-                <para>Block device for the second OSS node (oss2)</para>
+                <para>Block device for the second OSS node (oss1)</para>
               </entry>
             </row>
             <row>
               <entry>
-                <para> &#160;</para>
+                <para> </para>
               </entry>
               <entry>
                 <para> <emphasis role="bold">mount point</emphasis></para>
               </entry>
               <entry>
-                <para><literal>/mnt/ost2</literal></para>
+                <para><literal>/mnt/ost1</literal></para>
               </entry>
               <entry>
-                <para> Mount point for the <literal>ost2</literal> block device (<literal>/dev/sdd</literal>) on the <literal>oss2</literal> node</para>
+                <para> Mount point for the <literal>ost1</literal> block device (<literal>/dev/sdd</literal>) on the <literal>oss1</literal> node</para>
               </entry>
             </row>
             <row>
@@ -382,7 +400,7 @@ If you have a problem mounting the file system, check the syslogs on the client
             </row>
             <row>
               <entry>
-                <para> &#160;</para>
+                <para> </para>
               </entry>
               <entry>
                 <para> <emphasis role="bold">client node</emphasis></para>
@@ -396,7 +414,7 @@ If you have a problem mounting the file system, check the syslogs on the client
             </row>
             <row>
               <entry>
-                <para> &#160;</para>
+                <para> </para>
               </entry>
               <entry>
                 <para> <emphasis role="bold">mount point</emphasis></para>
@@ -417,19 +435,18 @@ If you have a problem mounting the file system, check the syslogs on the client
       <para>For this example, complete the steps below:</para>
       <orderedlist>
         <listitem>
-          <para><emphasis role="bold">Create a combined MGS/MDT file system on the block device. On the MDS node, run:</emphasis></para>
-          <screen>[root@mds /]# mkfs.lustre --fsname=temp --mgs --mdt /dev/sdb
-</screen>
+          <para>Create a combined MGS/MDT file system on the block device. On the MDS node, run:</para>
+          <screen>[root@mds /]# mkfs.lustre --fsname=temp --mgs --mdt --index=0 /dev/sdb</screen>
           <para>This command generates this output:</para>
           <screen>    Permanent disk data:
-Target:            temp-MDTffff
-Index:             unassigned
+Target:            temp-MDT0000
+Index:             0
 Lustre FS: temp
 Mount type:        ldiskfs
 Flags:             0x75
-   (MDT MGS needs_index first_time update )
+   (MDT MGS first_time update )
 Persistent mount opts: errors=remount-ro,iopen_nopriv,user_xattr
-Parameters: mdt.group_upcall=/usr/sbin/l_getgroups
+Parameters: mdt.identity_upcall=/usr/sbin/l_getidentity
  
 checking for existing Lustre data: not found
 device size = 16MB
@@ -440,38 +457,33 @@ formatting backing filesystem ldiskfs on /dev/sdb
    options                 -i 4096 -I 512 -q -O dir_index,uninit_groups -F
 mkfs_cmd = mkfs.ext2 -j -b 4096 -L temp-MDTffff  -i 4096 -I 512 -q -O 
 dir_index,uninit_groups -F /dev/sdb
-Writing CONFIGS/mountdata 
-</screen>
+Writing CONFIGS/mountdata </screen>
         </listitem>
         <listitem>
-          <para><emphasis role="bold">Mount the combined MGS/MDT file system on the block device. On the MDS node, run:</emphasis></para>
-          <screen>[root@mds /]# mount -t lustre /dev/sdb /mnt/mdt
-</screen>
+          <para>Mount the combined MGS/MDT file system on the block device. On the MDS node, run:</para>
+          <screen>[root@mds /]# mount -t lustre /dev/sdb /mnt/mdt</screen>
           <para>This command generates this output:</para>
           <screen>Lustre: temp-MDT0000: new disk, initializing 
-Lustre: 3009:0:(lproc_mds.c:262:lprocfs_wr_group_upcall()) temp-MDT0000: gr\
-oup upcall set to /usr/sbin/l_getgroups
-Lustre: temp-MDT0000.mdt: set parameter group_upcall=/usr/sbin/l_getgroups
-Lustre: Server temp-MDT0000 on device /dev/sdb has started 
-</screen>
+Lustre: 3009:0:(lproc_mds.c:262:lprocfs_wr_identity_upcall()) temp-MDT0000:
+group upcall set to /usr/sbin/l_getidentity
+Lustre: temp-MDT0000.mdt: set parameter identity_upcall=/usr/sbin/l_getidentity
+Lustre: Server temp-MDT0000 on device /dev/sdb has started </screen>
         </listitem>
         <listitem xml:id="dbdoclet.50438267_pgfId-1291170">
-          <para><emphasis role="bold">Create and mount <literal>ost1</literal>.</emphasis></para>
-          <para>In this example, the OSTs (<literal>ost1</literal> and <literal>ost2</literal>) are being created on different OSSs (<literal>oss1</literal> and <literal>oss2</literal> respectively).</para>
+          <para>Create and mount <literal>ost0</literal>.</para>
+          <para>In this example, the OSTs (<literal>ost0</literal> and <literal>ost1</literal>) are being created on different OSS nodes (<literal>oss0</literal> and <literal>oss1</literal> respectively).</para>
           <orderedlist>
             <listitem>
-              <para><emphasis role="bold">Create <literal>ost1</literal>. On <literal>oss1</literal> node, run:</emphasis></para>
-              <screen>[root@oss1 /]# mkfs.lustre --ost --fsname=temp --mgsnode=10.2.0.1@tcp0 /dev\
-/sdc
-</screen>
+              <para>Create <literal>ost0</literal>. On <literal>oss0</literal> node, run:</para>
+              <screen>[root@oss0 /]# mkfs.lustre --fsname=temp --mgsnode=10.2.0.1@tcp0 --ost --index=0 /dev/sdc</screen>
               <para>The command generates this output:</para>
               <screen>    Permanent disk data:
-Target:            temp-OSTffff
-Index:             unassigned
+Target:            temp-OST0000
+Index:             0
 Lustre FS: temp
 Mount type:        ldiskfs
 Flags:             0x72
-(OST needs_index first_time update)
+(OST first_time update)
 Persistent mount opts: errors=remount-ro,extents,mballoc
 Parameters: mgsnode=10.2.0.1@tcp
  
@@ -479,47 +491,42 @@ checking for existing Lustre data: not found
 device size = 16MB
 2 6 18
 formatting backing filesystem ldiskfs on /dev/sdc
-   target name             temp-OSTffff
+   target name             temp-OST0000
    4k blocks               0
    options                 -I 256 -q -O dir_index,uninit_groups -F
-mkfs_cmd = mkfs.ext2 -j -b 4096 -L temp-OSTffff  -I 256 -q -O
+mkfs_cmd = mkfs.ext2 -j -b 4096 -L temp-OST0000  -I 256 -q -O
 dir_index,uninit_groups -F /dev/sdc
-Writing CONFIGS/mountdata 
-</screen>
+Writing CONFIGS/mountdata </screen>
             </listitem>
             <listitem>
-              <para><emphasis role="bold">Mount ost1 on the OSS on which it was created. On <literal>oss1</literal> node, run:</emphasis></para>
-              <screen>root@oss1 /] mount -t lustre /dev/sdc /mnt/ost1 
-</screen>
+              <para>Mount ost0 on the OSS on which it was created. On <literal>oss0</literal> node, run:</para>
+              <screen>root@oss0 /] mount -t lustre /dev/sdc /mnt/ost0</screen>
               <para>The command generates this output:</para>
               <screen>LDISKFS-fs: file extents enabled 
 LDISKFS-fs: mballoc enabled
 Lustre: temp-OST0000: new disk, initializing
-Lustre: Server temp-OST0000 on device /dev/sdb has started
-</screen>
+Lustre: Server temp-OST0000 on device /dev/sdb has started</screen>
               <para>Shortly afterwards, this output appears:</para>
               <screen>Lustre: temp-OST0000: received MDS connection from 10.2.0.1@tcp0
-Lustre: MDS temp-MDT0000: temp-OST0000_UUID now active, resetting orphans 
-</screen>
+Lustre: MDS temp-MDT0000: temp-OST0000_UUID now active, resetting orphans </screen>
             </listitem>
           </orderedlist>
         </listitem>
         <listitem>
-          <para><emphasis role="bold">Create and mount <literal>ost2</literal>.</emphasis></para>
+          <para>Create and mount <literal>ost1</literal>.</para>
           <orderedlist>
             <listitem>
-              <para><emphasis role="bold">Create ost2. On <literal>oss2</literal> node, run:</emphasis></para>
-              <screen>[root@oss2 /]# mkfs.lustre --ost --fsname=temp --mgsnode=10.2.0.1@tcp0 /dev\
-/sdd
-</screen>
+              <para>Create ost1. On <literal>oss1</literal> node, run:</para>
+              <screen>[root@oss1 /]# mkfs.lustre --fsname=temp --mgsnode=10.2.0.1@tcp0 \
+           --ost --index=1 /dev/sdd</screen>
               <para>The command generates this output:</para>
               <screen>    Permanent disk data:
-Target:            temp-OSTffff
-Index:             unassigned
+Target:            temp-OST0001
+Index:             1
 Lustre FS: temp
 Mount type:        ldiskfs
 Flags:             0x72
-(OST needs_index first_time update)
+(OST first_time update)
 Persistent mount opts: errors=remount-ro,extents,mballoc
 Parameters: mgsnode=10.2.0.1@tcp
  
@@ -527,89 +534,70 @@ checking for existing Lustre data: not found
 device size = 16MB
 2 6 18
 formatting backing filesystem ldiskfs on /dev/sdd
-   target name             temp-OSTffff
+   target name             temp-OST0001
    4k blocks               0
    options                 -I 256 -q -O dir_index,uninit_groups -F
-mkfs_cmd = mkfs.ext2 -j -b 4096 -L temp-OSTffff  -I 256 -q -O
+mkfs_cmd = mkfs.ext2 -j -b 4096 -L temp-OST0001  -I 256 -q -O
 dir_index,uninit_groups -F /dev/sdc
-Writing CONFIGS/mountdata 
-</screen>
+Writing CONFIGS/mountdata </screen>
             </listitem>
             <listitem>
-              <para><emphasis role="bold">Mount ost2 on the OSS on which it was created. On <literal>oss2</literal> node, run:</emphasis></para>
-              <screen>root@oss2 /] mount -t lustre /dev/sdd /mnt/ost2 
-</screen>
+              <para>Mount ost1 on the OSS on which it was created. On <literal>oss1</literal> node, run:</para>
+              <screen>root@oss1 /] mount -t lustre /dev/sdd /mnt/ost1 </screen>
               <para>The command generates this output:</para>
               <screen>LDISKFS-fs: file extents enabled 
 LDISKFS-fs: mballoc enabled
-Lustre: temp-OST0000: new disk, initializing
-Lustre: Server temp-OST0000 on device /dev/sdb has started
-</screen>
+Lustre: temp-OST0001: new disk, initializing
+Lustre: Server temp-OST0001 on device /dev/sdb has started</screen>
               <para>Shortly afterwards, this output appears:</para>
-              <screen>Lustre: temp-OST0000: received MDS connection from 10.2.0.1@tcp0
-Lustre: MDS temp-MDT0000: temp-OST0000_UUID now active, resetting orphans 
-</screen>
+              <screen>Lustre: temp-OST0001: received MDS connection from 10.2.0.1@tcp0
+Lustre: MDS temp-MDT0000: temp-OST0001_UUID now active, resetting orphans </screen>
             </listitem>
           </orderedlist>
         </listitem>
         <listitem>
-          <para><emphasis role="bold">Mount the Lustre file system on the client. On the client node, run:</emphasis></para>
-          <screen>root@client1 /] mount -t lustre 10.2.0.1@tcp0:/temp /lustre 
-</screen>
+          <para>Mount the Lustre file system on the client. On the client node, run:</para>
+          <screen>root@client1 /] mount -t lustre 10.2.0.1@tcp0:/temp /lustre </screen>
           <para>This command generates this output:</para>
-          <screen>Lustre: Client temp-client has started
-</screen>
+          <screen>Lustre: Client temp-client has started</screen>
         </listitem>
         <listitem>
-          <para><emphasis role="bold">Verify that the file system started and is working by running the <literal>df</literal>, <literal>dd</literal> and <literal>ls</literal> commands on the client node.</emphasis></para>
+          <para>Verify that the file system started and is working by running the <literal>df</literal>, <literal>dd</literal> and <literal>ls</literal> commands on the client node.</para>
           <orderedlist>
             <listitem>
-              <para><emphasis role="bold">Run the <literal>lfs df -h</literal> command:</emphasis></para>
-              <screen>[root@client1 /] lfs df -h 
-</screen>
+              <para>Run the <literal>lfs df -h</literal> command:</para>
+              <screen>[root@client1 /] lfs df -h </screen>
               <para>The <literal>lfs df -h</literal> command lists space usage per OST and the MDT in human-readable format. This command generates output similar to this:</para>
-              <screen>UUID                        bytes           Used            Available      \
- Use%    Mounted on
-temp-MDT0000_UUID  8.0G            400.0M          7.6G            0%      \
-/lustre[MDT:0]
-temp-OST0000_UUID  800.0G          400.0M          799.6G          0%      \
-/lustre[OST:0]
-temp-OST0001_UUID  800.0G          400.0M          799.6G          0%      \
-/lustre[OST:1]
-filesystem summary:        1.6T            800.0M          1.6T            \
-0%      /lustre
-</screen>
+              <screen>
+UUID               bytes      Used      Available   Use%    Mounted on
+temp-MDT0000_UUID  8.0G      400.0M       7.6G        0%      /lustre[MDT:0]
+temp-OST0000_UUID  800.0G    400.0M     799.6G        0%      /lustre[OST:0]
+temp-OST0001_UUID  800.0G    400.0M     799.6G        0%      /lustre[OST:1]
+filesystem summary:  1.6T    800.0M       1.6T        0%      /lustre</screen>
             </listitem>
             <listitem>
-              <para><emphasis role="bold">Run the <literal>lfs df -ih</literal> command.</emphasis></para>
-              <screen>[root@client1 /] lfs df -ih
-</screen>
+              <para>Run the <literal>lfs df -ih</literal> command.</para>
+              <screen>[root@client1 /] lfs df -ih</screen>
               <para>The <literal>lfs df -ih</literal> command lists inode usage per OST and the MDT. This command generates output similar to this:</para>
-              <screen>UUID                        Inodes       IUsed      IFree   IUse%   Mounted\
- on
-temp-MDT0000_UUID  2.5M         32         2.5M    0%      /lustre[MDT:0]
-temp-OST0000_UUID  5.5M         54         5.5M    0%      /lustre[OST:0]
-temp-OST0001_UUID  5.5M         54         5.5M    0%      /lustre[OST:1]
-filesystem summary:        2.5M         32         2.5M    0%      /lustre
-</screen>
+              <screen>
+UUID              Inodes      IUsed       IFree   IUse%     Mounted on
+temp-MDT0000_UUID   2.5M        32         2.5M      0%       /lustre[MDT:0]
+temp-OST0000_UUID   5.5M        54         5.5M      0%       /lustre[OST:0]
+temp-OST0001_UUID   5.5M        54         5.5M      0%       /lustre[OST:1]
+filesystem summary: 2.5M        32         2.5M      0%       /lustre</screen>
             </listitem>
             <listitem>
-              <para><emphasis role="bold">Run the <literal>dd</literal> command:</emphasis></para>
+              <para>Run the <literal>dd</literal> command:</para>
               <screen>[root@client1 /] cd /lustre
-[root@client1 /lustre] dd if=/dev/zero of=/lustre/zero.dat bs=4M count=2
-</screen>
+[root@client1 /lustre] dd if=/dev/zero of=/lustre/zero.dat bs=4M count=2</screen>
               <para>The <literal>dd</literal> command verifies write functionality by creating a file containing all zeros (<literal>0</literal>s). In this command, an 8 MB file is created. This command generates output similar to this:</para>
               <screen>2+0 records in
 2+0 records out
-8388608 bytes (8.4 MB) copied, 0.159628 seconds, 52.6 MB/s
-</screen>
+8388608 bytes (8.4 MB) copied, 0.159628 seconds, 52.6 MB/s</screen>
             </listitem>
             <listitem>
-              <para><emphasis role="bold">Run the <literal>ls</literal> command:</emphasis></para>
-              <screen>[root@client1 /lustre] ls -lsah
-</screen>
+              <para>Run the <literal>ls</literal> command:</para>
+              <screen>[root@client1 /lustre] ls -lsah</screen>
               <para>The <literal>ls -lsah</literal> command lists files and directories in the current working directory. This command generates output similar to this:</para>
               <screen>total 8.0M
 4.0K drwxr-xr-x  2 root root 4.0K Oct 16 15:27 .
@@ -625,19 +613,25 @@ filesystem summary:        2.5M         32         2.5M    0%      /lustre
     </section>
   </section>
   <section xml:id="dbdoclet.50438267_76752">
-    <title>10.2 Additional Configuration Options</title>
+      <title>
+          <indexterm><primary>Lustre</primary><secondary>configuring</secondary><tertiary>additional options</tertiary></indexterm>
+          Additional Configuration Options</title>
     <para>This section describes how to scale the Lustre file system or make configuration changes using the Lustre configuration utilities.</para>
     <section remap="h3">
-      <title>10.2.1 Scaling the <anchor xml:id="dbdoclet.50438267_marker-1292440" xreflabel=""/>Lustre File System</title>
+        <title>
+          <indexterm><primary>Lustre</primary><secondary>configuring</secondary><tertiary>for scale</tertiary></indexterm>
+            Scaling the Lustre File System</title>
       <para>A Lustre file system can be scaled by adding OSTs or clients. For instructions on creating additional OSTs repeat Step <xref linkend="dbdoclet.50438267_pgfId-1291170"/> and Step <xref linkend="dbdoclet.50438267_pgfId-1293955"/> above. For mounting additional clients, repeat Step <xref linkend="dbdoclet.50438267_pgfId-1290934"/> for each client.</para>
     </section>
     <section remap="h3">
-      <title>10.2.2 <anchor xml:id="dbdoclet.50438267_50212" xreflabel=""/>Changing Striping Defaults</title>
+        <title>
+          <indexterm><primary>Lustre</primary><secondary>configuring</secondary><tertiary>striping</tertiary></indexterm>
+            Changing Striping Defaults</title>
       <para>The default settings for the file layout stripe pattern are shown in <xref linkend="configuringlustre.tab.stripe"/>.</para>
       <table frame="none" xml:id="configuringlustre.tab.stripe">
         <title>Default stripe pattern</title>
         <tgroup cols="3">
-          <colspec colname="c1" colwidth="3*"/>
+          <colspec colname="c1" colwidth="13*"/>
           <colspec colname="c2" colwidth="13*"/>
           <colspec colname="c3" colwidth="13*"/>
           <tbody>
@@ -691,7 +685,9 @@ filesystem summary:        2.5M         32         2.5M    0%      /lustre
       <para>Use the <literal>lfs setstripe</literal> command described in <xref linkend="managingstripingfreespace"/> to change the file layout configuration.</para>
     </section>
     <section remap="h3">
-      <title>10.2.3 Using the Lustre Configuration Utilities</title>
+        <title>
+          <indexterm><primary>Lustre</primary><secondary>configuring</secondary><tertiary>utilities</tertiary></indexterm>
+            Using the Lustre Configuration Utilities</title>
       <para>If additional configuration is necessary, several configuration utilities are available:</para>
       <itemizedlist>
         <listitem>
@@ -708,10 +704,9 @@ filesystem summary:        2.5M         32         2.5M    0%      /lustre
         </listitem>
       </itemizedlist>
       <para>For examples using these utilities, see the topic <xref linkend="systemconfigurationutilities"/></para>
-      <para>The lfs utility is usful for configuring and querying a variety of options related to files. For more information, see <xref linkend="userutilities"/>.</para>
+      <para>The <literal>lfs</literal> utility is useful for configuring and querying a variety of options related to files. For more information, see <xref linkend="userutilities"/>.</para>
       <note>
-        <para>
-Some sample scripts are included in the directory where Lustre is installed. If you have installed the Lustre source code, the scripts are located in the <literal>lustre/tests</literal> sub-directory. These scripts enable quick setup of some simple standard Lustre configurations.</para>
+        <para>Some sample scripts are included in the directory where Lustre is installed. If you have installed the Lustre source code, the scripts are located in the <literal>lustre/tests</literal> sub-directory. These scripts enable quick setup of some simple standard Lustre configurations.</para>
       </note>
     </section>
   </section>