Whamcloud - gitweb
LU-6889 kernel: new kerrnel [SLES11 SP4 3.0.101-65]
[fs/lustre-release.git] / lustre / ChangeLog
index 0e7e8cb..05fe2ea 100644 (file)
@@ -4,14 +4,22 @@ TBD Intel Corporation
          for currently supported client and server kernel versions.
        * Server known to build on patched kernels:
          2.6.32-431.29.2.el6 (RHEL6.5)
-         2.6.32-504.12.2.el6 (RHEL6.6)
-         3.0.101-0.47.52     (SLES11 SP3)
+         2.6.32-504.30.3.el6 (RHEL6.6)
+         2.6.32-573.7.1.el6  (RHEL6.7)
+         3.10.0-229.14.1.el7 (RHEL7.1)
+         3.0.101-0.47.55     (SLES11 SP3)
+         3.0.101-65          (SLES11 SP4)
        * Client known to build on unpatched kernels:
          2.6.32-431.29.2.el6 (RHEL6.5)
-         2.6.32-504.12.2.el6 (RHEL6.6)
-         3.10.0-229.1.2      (RHEL7.1)
-         3.0.101-0.47.52     (SLES11 SP3)
-       * Recommended e2fsprogs version: 1.42.9.wc1 or newer
+         2.6.32-504.30.3.el6 (RHEL6.6)
+         2.6.32-573.7.1.el6  (RHEL6.7)
+         3.10.0-229.14.1.el7 (RHEL7.1)
+         3.0.101-0.47.55     (SLES11 SP3)
+         3.0.101-65          (SLES11 SP4)
+         3.12.39-47          (SLES12)
+       * Recommended e2fsprogs version: 1.42.13.wc3 or newer
+       * Recommended ZFS / SPL version: 0.6.5.2
+       * Tested with ZFS / SPL version: 0.6.5.2
        * NFS export disabled when stack size < 8192 (32-bit Lustre clients),
          since the NFSv4 export of Lustre filesystem with 4K stack may cause a
          stack overflow. For more information, please refer to bugzilla 17630.
@@ -458,7 +466,7 @@ Description: Remove set_info(KEY_UNLINKED) from MDS/OSC
 Severity   : enhancement
 Bugzilla   : 19526
 Description: correctly handle big reply message.
-Details    : send LNet event if reply is bigger then buffer and adjust this buffer
+Details    : send LNet event if reply is bigger than buffer and adjust this buffer
              correctly.
 
 Severity   : normal
@@ -2725,7 +2733,7 @@ Severity   : normal
 Bugzilla   : 19128
 Description: Out or order replies might be lost on replay
 Details    : In ptlrpc_retain_replayable_request if we cannot find retained
-             request with tid smaller then one currently being added, add it
+             request with tid smaller than one currently being added, add it
             to the start, not end of the list.
 
 --------------------------------------------------------------------------------
@@ -3073,11 +3081,11 @@ Details    : decrease the amount of synchronous RPC between clients and servers
 Severity   : enhancement
 Bugzilla   : 4900
 Description: Async OSC create to avoid the blocking unnecessarily.
-Details    : If a OST has no remain object, system will block on the creating
-            when need to create a new object on this OST. Now, ways use
-            pre-created objects when available, instead of blocking on an
-            empty osc while others are not empty.  If we must block, we block
-            for the shortest possible period of time.
+Details    : If an OST has no remaining object, system will block on the
+            creation when it needs to create a new object on this OST. Now,
+            ways use pre-created objects when available, instead of blocking on
+            an empty osc while others are not empty.  If we must block, we
+            block for the shortest possible period of time.
 
 Severity   : major
 Bugzilla   : 11710
@@ -3843,7 +3851,7 @@ Details    : If one node attempts to overwrite an executable in use by
 Severity   : enhancement
 Bugzilla   : 4900
 Description: Async OSC create to avoid the blocking unnecessarily.
-Details    : If a OST has no remain object, system will block on the creating
+Details    : If an OST has no remaining object, system will block on the creating
             when need to create a new object on this OST. Now, ways use
             pre-created objects when available, instead of blocking on an
             empty osc while others are not empty.  If we must block, we block
@@ -4751,7 +4759,7 @@ Frequency  : common
 Bugzilla   : 9489, 3273
 Description: First write from each client to each OST was only 4kB in size,
             to initialize client writeback cache, which caused sub-optimal
-            RPCs and poor layout on disk for the first writen file.
+            RPCs and poor layout on disk for the first written file.
 Details    : Clients now request an initial cache grant at (re)connect time
             and so that they can start streaming writes to the cache right
             away and always do full-sized RPCs if there is enough data.