Whamcloud - gitweb
LUDOC-11 misc: fix vim footer formatting
[doc/manual.git] / UnderstandingLustre.xml
index 4a6b166..67efcd4 100644 (file)
@@ -1,7 +1,7 @@
 <?xml version='1.0' encoding='utf-8'?>
 <chapter xmlns="http://docbook.org/ns/docbook"
-xmlns:xl="http://www.w3.org/1999/xlink" version="5.0" xml:lang="en-US"
-xml:id="understandinglustre">
+ xmlns:xl="http://www.w3.org/1999/xlink" version="5.0" xml:lang="en-US"
+ xml:id="understandinglustre">
   <title xml:id="understandinglustre.title">Understanding Lustre
   Architecture</title>
   <para>This chapter describes the Lustre architecture and features of the
@@ -36,7 +36,7 @@ xml:id="understandinglustre">
     <para>The Lustre storage architecture is used for many different kinds of
     clusters. It is best known for powering many of the largest
     high-performance computing (HPC) clusters worldwide, with tens of thousands
-    of client systems, petabytes (PB) of storage and hundreds of gigabytes per
+    of client systems, petabytes (PiB) of storage and hundreds of gigabytes per
     second (GB/sec) of I/O throughput. Many HPC sites use a Lustre file system
     as a site-wide global file system, serving dozens of clusters.</para>
     <para>The ability of a Lustre file system to scale capacity and performance
@@ -161,8 +161,8 @@ xml:id="understandinglustre">
                 <para>
                   <emphasis>Single OST:</emphasis>
                 </para>
-                <para>300M objects, 128TB per OST (ldiskfs)</para>
-                <para>500M objects, 256TB per OST (ZFS)</para>
+                <para>300M objects, 256TiB per OST (ldiskfs)</para>
+                <para>500M objects, 256TiB per OST (ZFS)</para>
                 <para>
                   <emphasis>OSS count:</emphasis>
                 </para>
@@ -172,15 +172,15 @@ xml:id="understandinglustre">
                 <para>
                   <emphasis>Single OSS:</emphasis>
                 </para>
-                <para>32x 8TB OSTs per OSS (ldiskfs),</para>
-                <para>8x 32TB OSTs per OSS (ldiskfs)</para>
-                <para>1x 72TB OST per OSS (ZFS)</para>
+                <para>32x 8TiB OSTs per OSS (ldiskfs),</para>
+                <para>8x 32TiB OSTs per OSS (ldiskfs)</para>
+                <para>1x 72TiB OST per OSS (ZFS)</para>
                 <para>
                   <emphasis>OSS count:</emphasis>
                 </para>
-                <para>450 OSSs with 1000 4TB OSTs</para>
-                <para>192 OSSs with 1344 8TB OSTs</para>
-                <para>768 OSSs with 768 72TB OSTs</para>
+                <para>450 OSSs with 1000 4TiB OSTs</para>
+                <para>192 OSSs with 1344 8TiB OSTs</para>
+                <para>768 OSSs with 768 72TiB OSTs</para>
               </entry>
             </row>
             <row>
@@ -224,13 +224,12 @@ xml:id="understandinglustre">
                 <para>
                   <emphasis>Single MDT:</emphasis>
                 </para>
-                <para>4 billion files, 8TB per MDT (ldiskfs)</para>
-               <para>64 billion files, 64TB per MDT (ZFS)</para>
+                <para>4 billion files, 8TiB per MDT (ldiskfs)</para>
+               <para>64 billion files, 64TiB per MDT (ZFS)</para>
                 <para>
                   <emphasis>MDS count:</emphasis>
                 </para>
-                <para>1 primary + 1 standby</para>
-                <para condition="l24">256 MDSs, with up to 256 MDTs</para>
+                <para>256 MDSs, with up to 256 MDTs</para>
               </entry>
               <entry>
                 <para>
@@ -240,8 +239,8 @@ xml:id="understandinglustre">
                 <para>
                   <emphasis>MDS count:</emphasis>
                 </para>
-                <para>7 MDS with 7 2TB MDTs in production</para>
-                <para>256 MDS with 256 64GB MDTs in testing</para>
+                <para>7 MDS with 7 2TiB MDTs in production</para>
+                <para>256 MDS with 256 64GiB MDTs in testing</para>
               </entry>
             </row>
             <row>
@@ -269,22 +268,22 @@ xml:id="understandinglustre">
                 <para>
                   <emphasis>Single File:</emphasis>
                 </para>
-                <para>32 PB max file size (ldiskfs)</para>
+                <para>32 PiB max file size (ldiskfs)</para>
                <para>2^63 bytes (ZFS)</para>
                 <para>
                   <emphasis>Aggregate:</emphasis>
                 </para>
-                <para>512 PB space, 1 trillion files</para>
+                <para>512 PiB space, 1 trillion files</para>
               </entry>
               <entry>
                 <para>
                   <emphasis>Single File:</emphasis>
                 </para>
-                <para>multi-TB max file size</para>
+                <para>multi-TiB max file size</para>
                 <para>
                   <emphasis>Aggregate:</emphasis>
                 </para>
-                <para>55 PB space, 8 billion files</para>
+                <para>55 PiB space, 8 billion files</para>
               </entry>
             </row>
           </tbody>
@@ -304,11 +303,10 @@ xml:id="understandinglustre">
           additional functionality needed by the Lustre file system.</para>
         </listitem>
         <listitem>
-          <para condition="l24">With the Lustre software release 2.4 and later,
-          it is also possible to use ZFS as the backing filesystem for Lustre
-          for the MDT, OST, and MGS storage. This allows Lustre to leverage the
-          scalability and data integrity features of ZFS for individual storage
-          targets.</para>
+          <para>It is also possible to use ZFS as the backing filesystem for
+         Lustre for the MDT, OST, and MGS storage. This allows Lustre to
+         leverage the scalability and data integrity features of ZFS for
+         individual storage targets.</para>
         </listitem>
         <listitem>
           <para>
@@ -335,9 +333,8 @@ xml:id="understandinglustre">
           <para>
           <emphasis role="bold">High-availability:</emphasis>The Lustre file
           system supports active/active failover using shared storage
-          partitions for OSS targets (OSTs). Lustre software release 2.3 and
-          earlier releases offer active/passive failover using a shared storage
-          partition for the MDS target (MDT). The Lustre file system can work
+          partitions for OSS targets (OSTs), and for MDS targets (MDTs).
+          The Lustre file system can work
           with a variety of high availability (HA) managers to allow automated
           failover and has no single point of failure (NSPF). This allows
           application transparent recovery. Multiple mount protection (MMP)
@@ -345,11 +342,10 @@ xml:id="understandinglustre">
           systems that would otherwise cause file system corruption.</para>
         </listitem>
         <listitem>
-          <para condition="l24">With Lustre software release 2.4 or later
-          servers and clients it is possible to configure active/active
-          failover of multiple MDTs. This allows scaling the metadata
-          performance of Lustre filesystems with the addition of MDT storage
-          devices and MDS nodes.</para>
+          <para>It is possible to configure active/active failover of multiple
+           MDTs. This allows scaling the metadata performance of Lustre
+           filesystems with the addition of MDT storage devices and MDS nodes.
+         </para>
         </listitem>
         <listitem>
           <para>
@@ -508,16 +504,16 @@ xml:id="understandinglustre">
         </listitem>
         <listitem>
           <para>
-          <emphasis role="bold">Metadata Targets (MDT</emphasis>) - For Lustre
-          software release 2.3 and earlier, each file system has one MDT. The
+          <emphasis role="bold">Metadata Targets (MDT</emphasis>) - Each
+         filesystem has at least one MDT. The
           MDT stores metadata (such as filenames, directories, permissions and
           file layout) on storage attached to an MDS. Each file system has one
           MDT. An MDT on a shared storage target can be available to multiple
           MDSs, although only one can access it at a time. If an active MDS
           fails, a standby MDS can serve the MDT and make it available to
           clients. This is referred to as MDS failover.</para>
-          <para condition="l24">Since Lustre software release 2.4, multiple
-          MDTs are supported in the Distributed Namespace Environment (DNE).
+          <para>Multiple MDTs are supported in the Distributed Namespace
+         Environment (DNE).
           In addition to the primary MDT that holds the filesystem root, it
           is possible to add additional MDS nodes, each with their own MDTs,
           to hold sub-directory trees of the filesystem.</para>
@@ -531,7 +527,7 @@ xml:id="understandinglustre">
           <emphasis role="bold">Object Storage Servers (OSS)</emphasis>: The
           OSS provides file I/O service and network request handling for one or
           more local OSTs. Typically, an OSS serves between two and eight OSTs,
-          up to 16 TB each. A typical configuration is an MDT on a dedicated
+          up to 16 TiB each. A typical configuration is an MDT on a dedicated
           node, two or more OSTs on each OSS node, and a client on each of a
           large number of compute nodes.</para>
         </listitem>
@@ -626,7 +622,7 @@ xml:id="understandinglustre">
                 </para>
               </entry>
               <entry>
-                <para>1-128 TB per OST, 1-8 OSTs per OSS</para>
+                <para>1-128 TiB per OST, 1-8 OSTs per OSS</para>
               </entry>
               <entry>
                 <para>Good bus bandwidth. Recommended that storage be balanced
@@ -705,44 +701,18 @@ xml:id="understandinglustre">
       <primary>Lustre</primary>
       <secondary>I/O</secondary>
     </indexterm>Lustre File System Storage and I/O</title>
-    <para>In Lustre software release 2.0, Lustre file identifiers (FIDs) were
-    introduced to replace UNIX inode numbers for identifying files or objects.
-    A FID is a 128-bit identifier that contains a unique 64-bit sequence
-    number, a 32-bit object ID (OID), and a 32-bit version number. The sequence
-    number is unique across all Lustre targets in a file system (OSTs and
-    MDTs). This change enabled future support for multiple MDTs (introduced in
-    Lustre software release 2.4) and ZFS (introduced in Lustre software release
-    2.4).</para>
-    <para>Also introduced in release 2.0 is an ldiskfs feature named
-    <emphasis role="italic">FID-in-dirent</emphasis>(also known as
-    <emphasis role="italic">dirdata</emphasis>) in which the FID is stored as
-    part of the name of the file in the parent directory. This feature
-    significantly improves performance for
-    <literal>ls</literal> command executions by reducing disk I/O. The
-    FID-in-dirent is generated at the time the file is created.</para>
-    <note>
-      <para>The FID-in-dirent feature is not backward compatible with the
-      release 1.8 ldiskfs disk format. Therefore, when an upgrade from
-      release 1.8 to release 2.x is performed, the FID-in-dirent feature is
-      not automatically enabled. For upgrades from release 1.8 to releases
-      2.0 through 2.3, FID-in-dirent can be enabled manually but only takes
-      effect for new files.</para>
-      <para>For more information about upgrading from Lustre software release
-      1.8 and enabling FID-in-dirent for existing files, see
-      <xref xmlns:xlink="http://www.w3.org/1999/xlink"
-      linkend="upgradinglustre" />Chapter 16 “Upgrading a Lustre File
-      System”.</para>
-    </note>
-    <para condition="l24">The LFSCK file system consistency checking tool
-    released with Lustre software release 2.4 provides functionality that
-    enables FID-in-dirent for existing files. It includes the following
-    functionality:
+    <para>Lustre uses file identifiers (FIDs) to replace UNIX inode numbers
+      for identifying files or objects.  A FID is a 128-bit identifier that
+      contains a unique 64-bit sequence number, a 32-bit object ID (OID), and
+      a 32-bit version number. The sequence number is unique across all Lustre
+      targets in a file system (OSTs and MDTs). This allows Lustre to identify
+      files on multiple MDTs independent of the underlying filesystem type.
+    </para>
+    <para>The LFSCK file system consistency checking tool verifies the
+    consistency of file objects between MDTs and OSTs. It includes the
+    following functionality:
     <itemizedlist>
       <listitem>
-        <para>Generates IGIF mode FIDs for existing files from a 1.8 version
-        file system files.</para>
-      </listitem>
-      <listitem>
         <para>Verifies the FID-in-dirent for each file and regenerates the
         FID-in-dirent if it is invalid or missing.</para>
       </listitem>
@@ -892,15 +862,11 @@ xml:id="understandinglustre">
       </figure>
       <para>The maximum file size is not limited by the size of a single
       target. In a Lustre file system, files can be striped across multiple
-      objects (up to 2000), and each object can be up to 16 TB in size with
-      ldiskfs, or up to 256PB with ZFS. This leads to a maximum file size of
-      31.25 PB for ldiskfs or 8EB with ZFS. Note that a Lustre file system can
-      support files up to 2^63 bytes (8EB), limited only by the space available
+      objects (up to 2000), and each object can be up to 16 TiB in size with
+      ldiskfs, or up to 256PiB with ZFS. This leads to a maximum file size of
+      31.25 PiB for ldiskfs or 8EiB with ZFS. Note that a Lustre file system can
+      support files up to 2^63 bytes (8EiB), limited only by the space available
       on the OSTs.</para>
-      <note>
-        <para>Versions of the Lustre software prior to Release 2.2 limited the
-        maximum stripe count for a single file to 160 OSTs.</para>
-      </note>
       <para>Although a single file can only be striped over 2000 objects,
       Lustre file systems can have thousands of OSTs. The I/O bandwidth to
       access a single file is the aggregated I/O bandwidth to the objects in a
@@ -912,3 +878,6 @@ xml:id="understandinglustre">
     </section>
   </section>
 </chapter>
+<!--
+  vim:expandtab:shiftwidth=2:tabstop=8:
+  -->