Whamcloud - gitweb
LU-15407 test: remove dummy enc key at cleanup
[fs/lustre-release.git] / lustre / tests / sanity-sec.sh
1 #!/bin/bash
2 #
3 # Run select tests by setting ONLY, or as arguments to the script.
4 # Skip specific tests by setting EXCEPT.
5 #
6
7 set -e
8
9 ONLY=${ONLY:-"$*"}
10
11 LUSTRE=${LUSTRE:-$(dirname $0)/..}
12 . $LUSTRE/tests/test-framework.sh
13 init_test_env $@
14
15 init_logging
16
17 ALWAYS_EXCEPT="$SANITY_SEC_EXCEPT "
18 # bug number for skipped test:
19 ALWAYS_EXCEPT+=" "
20 # UPDATE THE COMMENT ABOVE WITH BUG NUMBERS WHEN CHANGING ALWAYS_EXCEPT!
21
22 [ "$SLOW" = "no" ] && EXCEPT_SLOW="26"
23
24 NODEMAP_TESTS=$(seq 7 26)
25
26 if ! check_versions; then
27         echo "It is NOT necessary to test nodemap under interoperation mode"
28         EXCEPT="$EXCEPT $NODEMAP_TESTS"
29 fi
30
31 build_test_filter
32
33 RUNAS_CMD=${RUNAS_CMD:-runas}
34
35 WTL=${WTL:-"$LUSTRE/tests/write_time_limit"}
36
37 CONFDIR=/etc/lustre
38 PERM_CONF=$CONFDIR/perm.conf
39 FAIL_ON_ERROR=false
40 HOSTNAME_CHECKSUM=$(hostname | sum | awk '{ print $1 }')
41 SUBNET_CHECKSUM=$(expr $HOSTNAME_CHECKSUM % 250 + 1)
42
43 require_dsh_mds || exit 0
44 require_dsh_ost || exit 0
45
46 clients=${CLIENTS//,/ }
47 num_clients=$(get_node_count ${clients})
48 clients_arr=($clients)
49
50 ID0=${ID0:-500}
51 ID1=${ID1:-501}
52 USER0=$(getent passwd | grep :$ID0:$ID0: | cut -d: -f1)
53 USER1=$(getent passwd | grep :$ID1:$ID1: | cut -d: -f1)
54
55 if [ "$SLOW" == "yes" ]; then
56         NODEMAP_COUNT=16
57         NODEMAP_RANGE_COUNT=3
58         NODEMAP_IPADDR_LIST="1 10 64 128 200 250"
59         NODEMAP_ID_COUNT=10
60 else
61         NODEMAP_COUNT=3
62         NODEMAP_RANGE_COUNT=2
63         NODEMAP_IPADDR_LIST="1 250"
64         NODEMAP_ID_COUNT=3
65 fi
66 NODEMAP_MAX_ID=$((ID0 + NODEMAP_ID_COUNT))
67
68 [ -z "$USER0" ] &&
69         skip "need to add user0 ($ID0:$ID0)" && exit 0
70
71 [ -z "$USER1" ] &&
72         skip "need to add user1 ($ID1:$ID1)" && exit 0
73
74 IDBASE=${IDBASE:-60000}
75
76 # changes to mappings must be reflected in test 23
77 FOPS_IDMAPS=(
78         [0]="$((IDBASE+3)):$((IDBASE+0)) $((IDBASE+4)):$((IDBASE+2))"
79         [1]="$((IDBASE+5)):$((IDBASE+1)) $((IDBASE+6)):$((IDBASE+2))"
80         )
81
82 check_and_setup_lustre
83
84 assert_DIR
85
86 # for GSS_SUP
87 GSS_REF=$(lsmod | grep ^ptlrpc_gss | awk '{print $3}')
88 if [ ! -z "$GSS_REF" -a "$GSS_REF" != "0" ]; then
89         GSS_SUP=1
90         echo "with GSS support"
91 else
92         GSS_SUP=0
93         echo "without GSS support"
94 fi
95
96 MDT=$(do_facet $SINGLEMDS lctl get_param -N "mdt.\*MDT0000" |
97         cut -d. -f2 || true)
98 [ -z "$MDT" ] && error "fail to get MDT device" && exit 1
99 do_facet $SINGLEMDS "mkdir -p $CONFDIR"
100 IDENTITY_FLUSH=mdt.$MDT.identity_flush
101 IDENTITY_UPCALL=mdt.$MDT.identity_upcall
102
103 SAVE_PWD=$PWD
104
105 sec_login() {
106         local user=$1
107         local group=$2
108
109         $GSS_KRB5 || return
110         if ! $RUNAS_CMD -u $user krb5_login.sh; then
111                 error "$user login kerberos failed."
112                 exit 1
113         fi
114
115         if ! $RUNAS_CMD -u $user -g $group ls $DIR > /dev/null 2>&1; then
116                 $RUNAS_CMD -u $user lfs flushctx -k
117                 $RUNAS_CMD -u $user krb5_login.sh
118                 if ! $RUNAS_CMD -u$user -g$group ls $DIR > /dev/null 2>&1; then
119                         error "init $user $group failed."
120                         exit 2
121                 fi
122         fi
123 }
124
125 declare -a identity_old
126
127 sec_setup() {
128         for num in $(seq $MDSCOUNT); do
129                 switch_identity $num true || identity_old[$num]=$?
130         done
131
132         if ! $RUNAS_CMD -u $ID0 ls $DIR > /dev/null 2>&1; then
133                 sec_login $USER0 $USER0
134         fi
135
136         if ! $RUNAS_CMD -u $ID1 ls $DIR > /dev/null 2>&1; then
137                 sec_login $USER1 $USER1
138         fi
139 }
140 sec_setup
141
142 # run as different user
143 test_0() {
144         umask 0022
145
146         chmod 0755 $DIR || error "chmod (1)"
147         rm -rf $DIR/$tdir || error "rm (1)"
148         mkdir -p $DIR/$tdir || error "mkdir (1)"
149         chown $USER0 $DIR/$tdir || error "chown (2)"
150         $RUNAS_CMD -u $ID0 ls $DIR || error "ls (1)"
151         rm -f $DIR/f0 || error "rm (2)"
152         $RUNAS_CMD -u $ID0 touch $DIR/f0 && error "touch (1)"
153         $RUNAS_CMD -u $ID0 touch $DIR/$tdir/f1 || error "touch (2)"
154         $RUNAS_CMD -u $ID1 touch $DIR/$tdir/f2 && error "touch (3)"
155         touch $DIR/$tdir/f3 || error "touch (4)"
156         chown root $DIR/$tdir || error "chown (3)"
157         chgrp $USER0 $DIR/$tdir || error "chgrp (1)"
158         chmod 0775 $DIR/$tdir || error "chmod (2)"
159         $RUNAS_CMD -u $ID0 touch $DIR/$tdir/f4 || error "touch (5)"
160         $RUNAS_CMD -u $ID1 touch $DIR/$tdir/f5 && error "touch (6)"
161         touch $DIR/$tdir/f6 || error "touch (7)"
162         rm -rf $DIR/$tdir || error "rm (3)"
163 }
164 run_test 0 "uid permission ============================="
165
166 # setuid/gid
167 test_1() {
168         [ $GSS_SUP = 0 ] && skip "without GSS support." && return
169
170         rm -rf $DIR/$tdir
171         mkdir_on_mdt0 $DIR/$tdir
172
173         chown $USER0 $DIR/$tdir || error "chown (1)"
174         $RUNAS_CMD -u $ID1 -v $ID0 touch $DIR/$tdir/f0 && error "touch (2)"
175         echo "enable uid $ID1 setuid"
176         do_facet $SINGLEMDS "echo '* $ID1 setuid' >> $PERM_CONF"
177         do_facet $SINGLEMDS "lctl set_param -n $IDENTITY_FLUSH=-1"
178         $RUNAS_CMD -u $ID1 -v $ID0 touch $DIR/$tdir/f1 || error "touch (3)"
179
180         chown root $DIR/$tdir || error "chown (4)"
181         chgrp $USER0 $DIR/$tdir || error "chgrp (5)"
182         chmod 0770 $DIR/$tdir || error "chmod (6)"
183         $RUNAS_CMD -u $ID1 -g $ID1 touch $DIR/$tdir/f2 && error "touch (7)"
184         $RUNAS_CMD -u$ID1 -g$ID1 -j$ID0 touch $DIR/$tdir/f3 && error "touch (8)"
185         echo "enable uid $ID1 setuid,setgid"
186         do_facet $SINGLEMDS "echo '* $ID1 setuid,setgid' > $PERM_CONF"
187         do_facet $SINGLEMDS "lctl set_param -n $IDENTITY_FLUSH=-1"
188         $RUNAS_CMD -u $ID1 -g $ID1 -j $ID0 touch $DIR/$tdir/f4 ||
189                 error "touch (9)"
190         $RUNAS_CMD -u $ID1 -v $ID0 -g $ID1 -j $ID0 touch $DIR/$tdir/f5 ||
191                 error "touch (10)"
192
193         rm -rf $DIR/$tdir
194
195         do_facet $SINGLEMDS "rm -f $PERM_CONF"
196         do_facet $SINGLEMDS "lctl set_param -n $IDENTITY_FLUSH=-1"
197 }
198 run_test 1 "setuid/gid ============================="
199
200 # bug 3285 - supplementary group should always succeed.
201 # NB: the supplementary groups are set for local client only,
202 # as for remote client, the groups of the specified uid on MDT
203 # will be obtained by upcall /sbin/l_getidentity and used.
204 test_4() {
205         [[ "$MDS1_VERSION" -ge $(version_code 2.6.93) ]] ||
206         [[ "$MDS1_VERSION" -ge $(version_code 2.5.35) &&
207            "$MDS1_VERSION" -lt $(version_code 2.5.50) ]] ||
208                 skip "Need MDS version at least 2.6.93 or 2.5.35"
209
210         rm -rf $DIR/$tdir
211         mkdir -p $DIR/$tdir
212         chmod 0771 $DIR/$tdir
213         chgrp $ID0 $DIR/$tdir
214         $RUNAS_CMD -u $ID0 ls $DIR/$tdir || error "setgroups (1)"
215         do_facet $SINGLEMDS "echo '* $ID1 setgrp' > $PERM_CONF"
216         do_facet $SINGLEMDS "lctl set_param -n $IDENTITY_FLUSH=-1"
217         $RUNAS_CMD -u $ID1 -G1,2,$ID0 ls $DIR/$tdir ||
218                 error "setgroups (2)"
219         $RUNAS_CMD -u $ID1 -G1,2 ls $DIR/$tdir && error "setgroups (3)"
220         rm -rf $DIR/$tdir
221
222         do_facet $SINGLEMDS "rm -f $PERM_CONF"
223         do_facet $SINGLEMDS "lctl set_param -n $IDENTITY_FLUSH=-1"
224 }
225 run_test 4 "set supplementary group ==============="
226
227 create_nodemaps() {
228         local i
229         local rc
230
231         squash_id default 99 0
232         wait_nm_sync default squash_uid '' inactive
233         squash_id default 99 1
234         wait_nm_sync default squash_gid '' inactive
235         for (( i = 0; i < NODEMAP_COUNT; i++ )); do
236                 local csum=${HOSTNAME_CHECKSUM}_${i}
237
238                 do_facet mgs $LCTL nodemap_add $csum
239                 rc=$?
240                 if [ $rc -ne 0 ]; then
241                         echo "nodemap_add $csum failed with $rc"
242                         return $rc
243                 fi
244
245                 wait_update_facet --verbose mgs \
246                         "$LCTL get_param nodemap.$csum.id 2>/dev/null | \
247                         grep -c $csum || true" 1 30 ||
248                     return 1
249         done
250         for (( i = 0; i < NODEMAP_COUNT; i++ )); do
251                 local csum=${HOSTNAME_CHECKSUM}_${i}
252
253                 wait_nm_sync $csum id '' inactive
254         done
255         return 0
256 }
257
258 delete_nodemaps() {
259         local i
260
261         for ((i = 0; i < NODEMAP_COUNT; i++)); do
262                 local csum=${HOSTNAME_CHECKSUM}_${i}
263
264                 if ! do_facet mgs $LCTL nodemap_del $csum; then
265                         error "nodemap_del $csum failed with $?"
266                         return 3
267                 fi
268
269                 wait_update_facet --verbose mgs \
270                         "$LCTL get_param nodemap.$csum.id 2>/dev/null | \
271                         grep -c $csum || true" 0 30 ||
272                     return 1
273         done
274         for (( i = 0; i < NODEMAP_COUNT; i++ )); do
275                 local csum=${HOSTNAME_CHECKSUM}_${i}
276
277                 wait_nm_sync $csum id '' inactive
278         done
279         return 0
280 }
281
282 add_range() {
283         local j
284         local cmd="$LCTL nodemap_add_range"
285         local range
286         local rc=0
287
288         for ((j = 0; j < NODEMAP_RANGE_COUNT; j++)); do
289                 range="$SUBNET_CHECKSUM.${2}.${j}.[1-253]@tcp"
290                 if ! do_facet mgs $cmd --name $1 --range $range; then
291                         rc=$((rc + 1))
292                 fi
293         done
294         return $rc
295 }
296
297 delete_range() {
298         local j
299         local cmd="$LCTL nodemap_del_range"
300         local range
301         local rc=0
302
303         for ((j = 0; j < NODEMAP_RANGE_COUNT; j++)); do
304                 range="$SUBNET_CHECKSUM.${2}.${j}.[1-253]@tcp"
305                 if ! do_facet mgs $cmd --name $1 --range $range; then
306                         rc=$((rc + 1))
307                 fi
308         done
309
310         return $rc
311 }
312
313 add_idmaps() {
314         local i
315         local cmd="$LCTL nodemap_add_idmap"
316         local do_proj=true
317         local rc=0
318
319         (( $MDS1_VERSION >= $(version_code 2.14.52) )) || do_proj=false
320
321         echo "Start to add idmaps ..."
322         for ((i = 0; i < NODEMAP_COUNT; i++)); do
323                 local j
324
325                 for ((j = $ID0; j < NODEMAP_MAX_ID; j++)); do
326                         local csum=${HOSTNAME_CHECKSUM}_${i}
327                         local client_id=$j
328                         local fs_id=$((j + 1))
329
330                         if ! do_facet mgs $cmd --name $csum --idtype uid \
331                              --idmap $client_id:$fs_id; then
332                                 rc=$((rc + 1))
333                         fi
334                         if ! do_facet mgs $cmd --name $csum --idtype gid \
335                              --idmap $client_id:$fs_id; then
336                                 rc=$((rc + 1))
337                         fi
338                         if $do_proj; then
339                                 if ! do_facet mgs $cmd --name $csum \
340                                      --idtype projid --idmap \
341                                      $client_id:$fs_id; then
342                                         rc=$((rc + 1))
343                                 fi
344                         fi
345                 done
346         done
347
348         return $rc
349 }
350
351 update_idmaps() { #LU-10040
352         [ "$MGS_VERSION" -lt $(version_code 2.10.55) ] &&
353                 skip "Need MGS >= 2.10.55"
354
355         local csum=${HOSTNAME_CHECKSUM}_0
356         local old_id_client=$ID0
357         local old_id_fs=$((ID0 + 1))
358         local new_id=$((ID0 + 100))
359         local tmp_id
360         local cmd
361         local run
362         local idtype
363         local rc=0
364
365         echo "Start to update idmaps ..."
366
367         #Inserting an existed idmap should return error
368         cmd="$LCTL nodemap_add_idmap --name $csum --idtype uid"
369         if do_facet mgs \
370                 $cmd --idmap $old_id_client:$old_id_fs 2>/dev/null; then
371                 error "insert idmap {$old_id_client:$old_id_fs} " \
372                         "should return error"
373                 rc=$((rc + 1))
374                 return rc
375         fi
376
377         #Update id_fs and check it
378         if ! do_facet mgs $cmd --idmap $old_id_client:$new_id; then
379                 error "$cmd --idmap $old_id_client:$new_id failed"
380                 rc=$((rc + 1))
381                 return $rc
382         fi
383         tmp_id=$(do_facet mgs $LCTL get_param -n nodemap.$csum.idmap |
384                 awk '{ print $7 }' | sed -n '2p')
385         [ $tmp_id != $new_id ] && { error "new id_fs $tmp_id != $new_id"; \
386                 rc=$((rc + 1)); return $rc; }
387
388         #Update id_client and check it
389         if ! do_facet mgs $cmd --idmap $new_id:$new_id; then
390                 error "$cmd --idmap $new_id:$new_id failed"
391                 rc=$((rc + 1))
392                 return $rc
393         fi
394         tmp_id=$(do_facet mgs $LCTL get_param -n nodemap.$csum.idmap |
395                 awk '{ print $5 }' | sed -n "$((NODEMAP_ID_COUNT + 1)) p")
396         tmp_id=$(echo ${tmp_id%,*}) #e.g. "501,"->"501"
397         [ $tmp_id != $new_id ] && { error "new id_client $tmp_id != $new_id"; \
398                 rc=$((rc + 1)); return $rc; }
399
400         #Delete above updated idmap
401         cmd="$LCTL nodemap_del_idmap --name $csum --idtype uid"
402         if ! do_facet mgs $cmd --idmap $new_id:$new_id; then
403                 error "$cmd --idmap $new_id:$new_id failed"
404                 rc=$((rc + 1))
405                 return $rc
406         fi
407
408         #restore the idmaps to make delete_idmaps work well
409         cmd="$LCTL nodemap_add_idmap --name $csum --idtype uid"
410         if ! do_facet mgs $cmd --idmap $old_id_client:$old_id_fs; then
411                 error "$cmd --idmap $old_id_client:$old_id_fs failed"
412                 rc=$((rc + 1))
413                 return $rc
414         fi
415
416         return $rc
417 }
418
419 delete_idmaps() {
420         local i
421         local cmd="$LCTL nodemap_del_idmap"
422         local do_proj=true
423         local rc=0
424
425         (( $MDS1_VERSION >= $(version_code 2.14.52) )) || do_proj=false
426
427         echo "Start to delete idmaps ..."
428         for ((i = 0; i < NODEMAP_COUNT; i++)); do
429                 local j
430
431                 for ((j = $ID0; j < NODEMAP_MAX_ID; j++)); do
432                         local csum=${HOSTNAME_CHECKSUM}_${i}
433                         local client_id=$j
434                         local fs_id=$((j + 1))
435
436                         if ! do_facet mgs $cmd --name $csum --idtype uid \
437                              --idmap $client_id:$fs_id; then
438                                 rc=$((rc + 1))
439                         fi
440                         if ! do_facet mgs $cmd --name $csum --idtype gid \
441                              --idmap $client_id:$fs_id; then
442                                 rc=$((rc + 1))
443                         fi
444                         if $do_proj; then
445                                 if ! do_facet mgs $cmd --name $csum \
446                                      --idtype projid --idmap \
447                                      $client_id:$fs_id; then
448                                         rc=$((rc + 1))
449                                 fi
450                         fi
451                 done
452         done
453
454         return $rc
455 }
456
457 modify_flags() {
458         local i
459         local proc
460         local option
461         local cmd="$LCTL nodemap_modify"
462         local rc=0
463
464         proc[0]="admin_nodemap"
465         proc[1]="trusted_nodemap"
466         option[0]="admin"
467         option[1]="trusted"
468
469         for ((idx = 0; idx < 2; idx++)); do
470                 if ! do_facet mgs $cmd --name $1 --property ${option[$idx]} \
471                      --value 1; then
472                         rc=$((rc + 1))
473                 fi
474
475                 if ! do_facet mgs $cmd --name $1 --property ${option[$idx]} \
476                      --value 0; then
477                         rc=$((rc + 1))
478                 fi
479         done
480
481         return $rc
482 }
483
484 squash_id() {
485         [ "$MGS_VERSION" -lt $(version_code 2.5.53) ] &&
486                 skip "No nodemap on $MGS_VERSION MGS < 2.5.53"
487
488         local cmd
489
490         cmd[0]="$LCTL nodemap_modify --property squash_uid"
491         cmd[1]="$LCTL nodemap_modify --property squash_gid"
492         cmd[2]="$LCTL nodemap_modify --property squash_projid"
493
494         if ! do_facet mgs ${cmd[$3]} --name $1 --value $2; then
495                 return 1
496         fi
497 }
498
499 # ensure that the squash defaults are the expected defaults
500 squash_id default 99 0
501 wait_nm_sync default squash_uid '' inactive
502 squash_id default 99 1
503 wait_nm_sync default squash_gid '' inactive
504 if [ "$MDS1_VERSION" -ge $(version_code 2.14.50) ]; then
505         squash_id default 99 2
506         wait_nm_sync default squash_projid '' inactive
507 fi
508
509 test_nid() {
510         local cmd
511
512         cmd="$LCTL nodemap_test_nid"
513
514         nid=$(do_facet mgs $cmd $1)
515
516         if [ $nid == $2 ]; then
517                 return 0
518         fi
519
520         return 1
521 }
522
523 cleanup_active() {
524         # restore activation state
525         do_facet mgs $LCTL nodemap_activate 0
526         wait_nm_sync active
527 }
528
529 test_idmap() {
530         local i
531         local cmd="$LCTL nodemap_test_id"
532         local rc=0
533
534         echo "Start to test idmaps ..."
535         ## nodemap deactivated
536         if ! do_facet mgs $LCTL nodemap_activate 0; then
537                 return 1
538         fi
539         for ((id = $ID0; id < NODEMAP_MAX_ID; id++)); do
540                 local j
541
542                 for ((j = 0; j < NODEMAP_RANGE_COUNT; j++)); do
543                         local nid="$SUBNET_CHECKSUM.0.${j}.100@tcp"
544                         local fs_id=$(do_facet mgs $cmd --nid $nid      \
545                                       --idtype uid --id $id)
546                         if [ $fs_id != $id ]; then
547                                 echo "expected $id, got $fs_id"
548                                 rc=$((rc + 1))
549                         fi
550                 done
551         done
552
553         ## nodemap activated
554         if ! do_facet mgs $LCTL nodemap_activate 1; then
555                 return 2
556         fi
557
558         for ((id = $ID0; id < NODEMAP_MAX_ID; id++)); do
559                 for ((j = 0; j < NODEMAP_RANGE_COUNT; j++)); do
560                         nid="$SUBNET_CHECKSUM.0.${j}.100@tcp"
561                         fs_id=$(do_facet mgs $cmd --nid $nid    \
562                                 --idtype uid --id $id)
563                         expected_id=$((id + 1))
564                         if [ $fs_id != $expected_id ]; then
565                                 echo "expected $expected_id, got $fs_id"
566                                 rc=$((rc + 1))
567                         fi
568                 done
569         done
570
571         ## trust client ids
572         for ((i = 0; i < NODEMAP_COUNT; i++)); do
573                 local csum=${HOSTNAME_CHECKSUM}_${i}
574
575                 if ! do_facet mgs $LCTL nodemap_modify --name $csum \
576                      --property trusted --value 1; then
577                         error "nodemap_modify $csum failed with $?"
578                         return 3
579                 fi
580         done
581
582         for ((id = $ID0; id < NODEMAP_MAX_ID; id++)); do
583                 for ((j = 0; j < NODEMAP_RANGE_COUNT; j++)); do
584                         nid="$SUBNET_CHECKSUM.0.${j}.100@tcp"
585                         fs_id=$(do_facet mgs $cmd --nid $nid    \
586                                 --idtype uid --id $id)
587                         if [ $fs_id != $id ]; then
588                                 echo "expected $id, got $fs_id"
589                                 rc=$((rc + 1))
590                         fi
591                 done
592         done
593
594         ## ensure allow_root_access is enabled
595         for ((i = 0; i < NODEMAP_COUNT; i++)); do
596                 local csum=${HOSTNAME_CHECKSUM}_${i}
597
598                 if ! do_facet mgs $LCTL nodemap_modify --name $csum     \
599                      --property admin --value 1; then
600                         error "nodemap_modify $csum failed with $?"
601                         return 3
602                 fi
603         done
604
605         ## check that root allowed
606         for ((j = 0; j < NODEMAP_RANGE_COUNT; j++)); do
607                 nid="$SUBNET_CHECKSUM.0.${j}.100@tcp"
608                 fs_id=$(do_facet mgs $cmd --nid $nid --idtype uid --id 0)
609                 if [ $fs_id != 0 ]; then
610                         echo "root allowed expected 0, got $fs_id"
611                         rc=$((rc + 1))
612                 fi
613         done
614
615         ## ensure allow_root_access is disabled
616         for ((i = 0; i < NODEMAP_COUNT; i++)); do
617                 local csum=${HOSTNAME_CHECKSUM}_${i}
618
619                 if ! do_facet mgs $LCTL nodemap_modify --name $csum     \
620                                 --property admin --value 0; then
621                         error "nodemap_modify ${HOSTNAME_CHECKSUM}_${i} "
622                                 "failed with $rc"
623                         return 3
624                 fi
625         done
626
627         ## check that root is mapped to 99
628         for ((j = 0; j < NODEMAP_RANGE_COUNT; j++)); do
629                 nid="$SUBNET_CHECKSUM.0.${j}.100@tcp"
630                 fs_id=$(do_facet mgs $cmd --nid $nid --idtype uid --id 0)
631                 if [ $fs_id != 99 ]; then
632                         error "root squash expected 99, got $fs_id"
633                         rc=$((rc + 1))
634                 fi
635         done
636
637         ## reset client trust to 0
638         for ((i = 0; i < NODEMAP_COUNT; i++)); do
639                 if ! do_facet mgs $LCTL nodemap_modify          \
640                         --name ${HOSTNAME_CHECKSUM}_${i}        \
641                         --property trusted --value 0; then
642                         error "nodemap_modify ${HOSTNAME_CHECKSUM}_${i} "
643                                 "failed with $rc"
644                         return 3
645                 fi
646         done
647
648         return $rc
649 }
650
651 test_7() {
652         local rc
653
654         remote_mgs_nodsh && skip "remote MGS with nodsh"
655         [ "$MGS_VERSION" -lt $(version_code 2.5.53) ] &&
656                 skip "No nodemap on $MGS_VERSION MGS < 2.5.53"
657
658         create_nodemaps
659         rc=$?
660         [[ $rc != 0 ]] && error "nodemap_add failed with $rc"
661
662         delete_nodemaps
663         rc=$?
664         [[ $rc != 0 ]] && error "nodemap_del failed with $rc"
665
666         return 0
667 }
668 run_test 7 "nodemap create and delete"
669
670 test_8() {
671         local rc
672
673         remote_mgs_nodsh && skip "remote MGS with nodsh"
674         [ "$MGS_VERSION" -lt $(version_code 2.5.53) ] &&
675                 skip "No nodemap on $MGS_VERSION MGS < 2.5.53"
676
677         # Set up nodemaps
678
679         create_nodemaps
680         rc=$?
681         [[ $rc != 0 ]] && error "nodemap_add failed with $rc" && return 1
682
683         # Try duplicates
684
685         create_nodemaps
686         rc=$?
687         [[ $rc == 0 ]] && error "duplicate nodemap_add allowed with $rc" &&
688         return 2
689
690         # Clean up
691         delete_nodemaps
692         rc=$?
693         [[ $rc != 0 ]] && error "nodemap_del failed with $rc" && return 3
694
695         return 0
696 }
697 run_test 8 "nodemap reject duplicates"
698
699 test_9() {
700         local i
701         local rc
702
703         remote_mgs_nodsh && skip "remote MGS with nodsh"
704         [ "$MGS_VERSION" -lt $(version_code 2.5.53) ] &&
705                 skip "No nodemap on $MGS_VERSION MGS < 2.5.53"
706
707         rc=0
708         create_nodemaps
709         rc=$?
710         [[ $rc != 0 ]] && error "nodemap_add failed with $rc" && return 1
711
712         rc=0
713         for ((i = 0; i < NODEMAP_COUNT; i++)); do
714                 if ! add_range ${HOSTNAME_CHECKSUM}_${i} $i; then
715                         rc=$((rc + 1))
716                 fi
717         done
718         [[ $rc != 0 ]] && error "nodemap_add_range failed with $rc" && return 2
719
720         rc=0
721         for ((i = 0; i < NODEMAP_COUNT; i++)); do
722                 if ! delete_range ${HOSTNAME_CHECKSUM}_${i} $i; then
723                         rc=$((rc + 1))
724                 fi
725         done
726         [[ $rc != 0 ]] && error "nodemap_del_range failed with $rc" && return 4
727
728         rc=0
729         delete_nodemaps
730         rc=$?
731         [[ $rc != 0 ]] && error "nodemap_del failed with $rc" && return 4
732
733         return 0
734 }
735 run_test 9 "nodemap range add"
736
737 test_10a() {
738         local rc
739
740         remote_mgs_nodsh && skip "remote MGS with nodsh"
741         [ "$MGS_VERSION" -lt $(version_code 2.5.53) ] &&
742                 skip "No nodemap on $MGS_VERSION MGS < 2.5.53"
743
744         rc=0
745         create_nodemaps
746         rc=$?
747         [[ $rc != 0 ]] && error "nodemap_add failed with $rc" && return 1
748
749         rc=0
750         for ((i = 0; i < NODEMAP_COUNT; i++)); do
751                 if ! add_range ${HOSTNAME_CHECKSUM}_${i} $i; then
752                         rc=$((rc + 1))
753                 fi
754         done
755         [[ $rc != 0 ]] && error "nodemap_add_range failed with $rc" && return 2
756
757         rc=0
758         for ((i = 0; i < NODEMAP_COUNT; i++)); do
759                 if ! add_range ${HOSTNAME_CHECKSUM}_${i} $i; then
760                         rc=$((rc + 1))
761                 fi
762         done
763         [[ $rc == 0 ]] && error "nodemap_add_range duplicate add with $rc" &&
764                 return 2
765
766
767         rc=0
768         for ((i = 0; i < NODEMAP_COUNT; i++)); do
769                 if ! delete_range ${HOSTNAME_CHECKSUM}_${i} $i; then
770                         rc=$((rc + 1))
771                 fi
772         done
773         [[ $rc != 0 ]] && error "nodemap_del_range failed with $rc" && return 4
774
775         delete_nodemaps
776         rc=$?
777         [[ $rc != 0 ]] && error "nodemap_del failed with $rc" && return 5
778
779         return 0
780 }
781 run_test 10a "nodemap reject duplicate ranges"
782
783 test_10b() {
784         [ "$MGS_VERSION" -lt $(version_code 2.10.53) ] &&
785                 skip "Need MGS >= 2.10.53"
786
787         local nm1="nodemap1"
788         local nm2="nodemap2"
789         local nids="192.168.19.[0-255]@o2ib20"
790
791         do_facet mgs $LCTL nodemap_del $nm1 2>/dev/null
792         do_facet mgs $LCTL nodemap_del $nm2 2>/dev/null
793
794         do_facet mgs $LCTL nodemap_add $nm1 || error "Add $nm1 failed"
795         do_facet mgs $LCTL nodemap_add $nm2 || error "Add $nm2 failed"
796         do_facet mgs $LCTL nodemap_add_range --name $nm1 --range $nids ||
797                 error "Add range $nids to $nm1 failed"
798         [ -n "$(do_facet mgs $LCTL get_param nodemap.$nm1.* |
799                 grep start_nid)" ] || error "No range was found"
800         do_facet mgs $LCTL nodemap_del_range --name $nm2 --range $nids &&
801                 error "Deleting range $nids from $nm2 should fail"
802         [ -n "$(do_facet mgs $LCTL get_param nodemap.$nm1.* |
803                 grep start_nid)" ] || error "Range $nids should be there"
804
805         do_facet mgs $LCTL nodemap_del $nm1 || error "Delete $nm1 failed"
806         do_facet mgs $LCTL nodemap_del $nm2 || error "Delete $nm2 failed"
807         return 0
808 }
809 run_test 10b "delete range from the correct nodemap"
810
811 test_10c() { #LU-8912
812         [ "$MGS_VERSION" -lt $(version_code 2.10.57) ] &&
813                 skip "Need MGS >= 2.10.57"
814
815         local nm="nodemap_lu8912"
816         local nid_range="10.210.[32-47].[0-255]@o2ib3"
817         local start_nid="10.210.32.0@o2ib3"
818         local end_nid="10.210.47.255@o2ib3"
819         local start_nid_found
820         local end_nid_found
821
822         do_facet mgs $LCTL nodemap_del $nm 2>/dev/null
823         do_facet mgs $LCTL nodemap_add $nm || error "Add $nm failed"
824         do_facet mgs $LCTL nodemap_add_range --name $nm --range $nid_range ||
825                 error "Add range $nid_range to $nm failed"
826
827         start_nid_found=$(do_facet mgs $LCTL get_param nodemap.$nm.* |
828                 awk -F '[,: ]' /start_nid/'{ print $9 }')
829         [ "$start_nid" == "$start_nid_found" ] ||
830                 error "start_nid: $start_nid_found != $start_nid"
831         end_nid_found=$(do_facet mgs $LCTL get_param nodemap.$nm.* |
832                 awk -F '[,: ]' /end_nid/'{ print $13 }')
833         [ "$end_nid" == "$end_nid_found" ] ||
834                 error "end_nid: $end_nid_found != $end_nid"
835
836         do_facet mgs $LCTL nodemap_del $nm || error "Delete $nm failed"
837         return 0
838 }
839 run_test 10c "verfify contiguous range support"
840
841 test_10d() { #LU-8913
842         [ "$MGS_VERSION" -lt $(version_code 2.10.59) ] &&
843                 skip "Need MGS >= 2.10.59"
844
845         local nm="nodemap_lu8913"
846         local nid_range="*@o2ib3"
847         local start_nid="0.0.0.0@o2ib3"
848         local end_nid="255.255.255.255@o2ib3"
849         local start_nid_found
850         local end_nid_found
851
852         do_facet mgs $LCTL nodemap_del $nm 2>/dev/null
853         do_facet mgs $LCTL nodemap_add $nm || error "Add $nm failed"
854         do_facet mgs $LCTL nodemap_add_range --name $nm --range $nid_range ||
855                 error "Add range $nid_range to $nm failed"
856
857         start_nid_found=$(do_facet mgs $LCTL get_param nodemap.$nm.* |
858                 awk -F '[,: ]' /start_nid/'{ print $9 }')
859         [ "$start_nid" == "$start_nid_found" ] ||
860                 error "start_nid: $start_nid_found != $start_nid"
861         end_nid_found=$(do_facet mgs $LCTL get_param nodemap.$nm.* |
862                 awk -F '[,: ]' /end_nid/'{ print $13 }')
863         [ "$end_nid" == "$end_nid_found" ] ||
864                 error "end_nid: $end_nid_found != $end_nid"
865
866         do_facet mgs $LCTL nodemap_del $nm || error "Delete $nm failed"
867         return 0
868 }
869 run_test 10d "verfify nodemap range format '*@<net>' support"
870
871 test_11() {
872         local rc
873
874         remote_mgs_nodsh && skip "remote MGS with nodsh"
875         [ "$MGS_VERSION" -lt $(version_code 2.5.53) ] &&
876                 skip "No nodemap on $MGS_VERSION MGS < 2.5.53"
877
878         rc=0
879         create_nodemaps
880         rc=$?
881         [[ $rc != 0 ]] && error "nodemap_add failed with $rc" && return 1
882
883         rc=0
884         for ((i = 0; i < NODEMAP_COUNT; i++)); do
885                 if ! modify_flags ${HOSTNAME_CHECKSUM}_${i}; then
886                         rc=$((rc + 1))
887                 fi
888         done
889         [[ $rc != 0 ]] && error "nodemap_modify with $rc" && return 2
890
891         rc=0
892         delete_nodemaps
893         rc=$?
894         [[ $rc != 0 ]] && error "nodemap_del failed with $rc" && return 3
895
896         return 0
897 }
898 run_test 11 "nodemap modify"
899
900 test_12() {
901         local rc
902
903         remote_mgs_nodsh && skip "remote MGS with nodsh"
904         [ "$MGS_VERSION" -lt $(version_code 2.5.53) ] &&
905                 skip "No nodemap on $MGS_VERSION MGS < 2.5.53"
906
907         rc=0
908         create_nodemaps
909         rc=$?
910         [[ $rc != 0 ]] && error "nodemap_add failed with $rc" && return 1
911
912         rc=0
913         for ((i = 0; i < NODEMAP_COUNT; i++)); do
914                 if ! squash_id ${HOSTNAME_CHECKSUM}_${i} 88 0; then
915                         rc=$((rc + 1))
916                 fi
917         done
918         [[ $rc != 0 ]] && error "nodemap squash_uid with $rc" && return 2
919
920         rc=0
921         for ((i = 0; i < NODEMAP_COUNT; i++)); do
922                 if ! squash_id ${HOSTNAME_CHECKSUM}_${i} 88 1; then
923                         rc=$((rc + 1))
924                 fi
925         done
926         [[ $rc != 0 ]] && error "nodemap squash_gid with $rc" && return 3
927
928         rc=0
929         if (( $MDS1_VERSION >= $(version_code 2.14.52) )); then
930                 for ((i = 0; i < NODEMAP_COUNT; i++)); do
931                         if ! squash_id ${HOSTNAME_CHECKSUM}_${i} 88 2; then
932                                 rc=$((rc + 1))
933                         fi
934                 done
935         fi
936         [[ $rc != 0 ]] && error "nodemap squash_projid with $rc" && return 5
937
938         rc=0
939         delete_nodemaps
940         rc=$?
941         [[ $rc != 0 ]] && error "nodemap_del failed with $rc" && return 4
942
943         return 0
944 }
945 run_test 12 "nodemap set squash ids"
946
947 test_13() {
948         local rc
949
950         remote_mgs_nodsh && skip "remote MGS with nodsh"
951         [ "$MGS_VERSION" -lt $(version_code 2.5.53) ] &&
952                 skip "No nodemap on $MGS_VERSION MGS < 2.5.53"
953
954         rc=0
955         create_nodemaps
956         rc=$?
957         [[ $rc != 0 ]] && error "nodemap_add failed with $rc" && return 1
958
959         rc=0
960         for ((i = 0; i < NODEMAP_COUNT; i++)); do
961                 if ! add_range ${HOSTNAME_CHECKSUM}_${i} $i; then
962                         rc=$((rc + 1))
963                 fi
964         done
965         [[ $rc != 0 ]] && error "nodemap_add_range failed with $rc" && return 2
966
967         rc=0
968         for ((i = 0; i < NODEMAP_COUNT; i++)); do
969                 for ((j = 0; j < NODEMAP_RANGE_COUNT; j++)); do
970                         for k in $NODEMAP_IPADDR_LIST; do
971                                 if ! test_nid $SUBNET_CHECKSUM.$i.$j.$k \
972                                        ${HOSTNAME_CHECKSUM}_${i}; then
973                                         rc=$((rc + 1))
974                                 fi
975                         done
976                 done
977         done
978         [[ $rc != 0 ]] && error "nodemap_test_nid failed with $rc" && return 3
979
980         rc=0
981         delete_nodemaps
982         rc=$?
983         [[ $rc != 0 ]] && error "nodemap_del failed with $rc" && return 4
984
985         return 0
986 }
987 run_test 13 "test nids"
988
989 test_14() {
990         local rc
991
992         remote_mgs_nodsh && skip "remote MGS with nodsh"
993         [ "$MGS_VERSION" -lt $(version_code 2.5.53) ] &&
994                 skip "No nodemap on $MGS_VERSION MGS < 2.5.53"
995
996         rc=0
997         create_nodemaps
998         rc=$?
999         [[ $rc != 0 ]] && error "nodemap_add failed with $rc" && return 1
1000
1001         rc=0
1002         for ((i = 0; i < NODEMAP_COUNT; i++)); do
1003                 for ((j = 0; j < NODEMAP_RANGE_COUNT; j++)); do
1004                         for k in $NODEMAP_IPADDR_LIST; do
1005                                 if ! test_nid $SUBNET_CHECKSUM.$i.$j.$k \
1006                                         default; then
1007                                         rc=$((rc + 1))
1008                                 fi
1009                         done
1010                 done
1011         done
1012         [[ $rc != 0 ]] && error "nodemap_test_nid failed with $rc" && return 3
1013
1014         rc=0
1015         delete_nodemaps
1016         rc=$?
1017         [[ $rc != 0 ]] && error "nodemap_del failed with $rc" && return 4
1018
1019         return 0
1020 }
1021 run_test 14 "test default nodemap nid lookup"
1022
1023 test_15() {
1024         local rc
1025
1026         remote_mgs_nodsh && skip "remote MGS with nodsh"
1027         [ "$MGS_VERSION" -lt $(version_code 2.5.53) ] &&
1028                 skip "No nodemap on $MGS_VERSION MGS < 2.5.53"
1029
1030         rc=0
1031         create_nodemaps
1032         rc=$?
1033         [[ $rc != 0 ]] && error "nodemap_add failed with $rc" && return 1
1034
1035         for (( i = 0; i < NODEMAP_COUNT; i++ )); do
1036                 local csum=${HOSTNAME_CHECKSUM}_${i}
1037
1038                 if ! do_facet mgs $LCTL nodemap_modify --name $csum \
1039                                 --property admin --value 0; then
1040                         rc=$((rc + 1))
1041                 fi
1042                 if ! do_facet mgs $LCTL nodemap_modify --name $csum \
1043                                 --property trusted --value 0; then
1044                         rc=$((rc + 1))
1045                 fi
1046         done
1047         [[ $rc != 0 ]] && error "nodemap_modify failed with $rc" && return 1
1048
1049         rc=0
1050         for ((i = 0; i < NODEMAP_COUNT; i++)); do
1051                 if ! add_range ${HOSTNAME_CHECKSUM}_${i} $i; then
1052                         rc=$((rc + 1))
1053                 fi
1054         done
1055         [[ $rc != 0 ]] && error "nodemap_add_range failed with $rc" && return 2
1056
1057         rc=0
1058         add_idmaps
1059         rc=$?
1060         [[ $rc != 0 ]] && error "nodemap_add_idmap failed with $rc" && return 3
1061
1062         activedefault=$(do_facet mgs $LCTL get_param -n nodemap.active)
1063         if [[ "$activedefault" != "1" ]]; then
1064                 stack_trap cleanup_active EXIT
1065         fi
1066
1067         rc=0
1068         test_idmap
1069         rc=$?
1070         [[ $rc != 0 ]] && error "nodemap_test_id failed with $rc" && return 4
1071
1072         rc=0
1073         update_idmaps
1074         rc=$?
1075         [[ $rc != 0 ]] && error "update_idmaps failed with $rc" && return 5
1076
1077         rc=0
1078         delete_idmaps
1079         rc=$?
1080         [[ $rc != 0 ]] && error "nodemap_del_idmap failed with $rc" && return 6
1081
1082         rc=0
1083         delete_nodemaps
1084         rc=$?
1085         [[ $rc != 0 ]] && error "nodemap_delete failed with $rc" && return 7
1086
1087         return 0
1088 }
1089 run_test 15 "test id mapping"
1090
1091 create_fops_nodemaps() {
1092         local i=0
1093         local client
1094         for client in $clients; do
1095                 local client_ip=$(host_nids_address $client $NETTYPE)
1096                 local client_nid=$(h2nettype $client_ip)
1097                 do_facet mgs $LCTL nodemap_add c${i} || return 1
1098                 do_facet mgs $LCTL nodemap_add_range    \
1099                         --name c${i} --range $client_nid || return 1
1100                 for map in ${FOPS_IDMAPS[i]}; do
1101                         do_facet mgs $LCTL nodemap_add_idmap --name c${i} \
1102                                 --idtype uid --idmap ${map} || return 1
1103                         do_facet mgs $LCTL nodemap_add_idmap --name c${i} \
1104                                 --idtype gid --idmap ${map} || return 1
1105                 done
1106
1107                 wait_nm_sync c$i idmap
1108
1109                 i=$((i + 1))
1110         done
1111         return 0
1112 }
1113
1114 delete_fops_nodemaps() {
1115         local i=0
1116         local client
1117         for client in $clients; do
1118                 do_facet mgs $LCTL nodemap_del c${i} || return 1
1119                 i=$((i + 1))
1120         done
1121         return 0
1122 }
1123
1124 fops_mds_index=0
1125 nm_test_mkdir() {
1126         if [ $MDSCOUNT -le 1 ]; then
1127                 do_node ${clients_arr[0]} mkdir -p $DIR/$tdir
1128         else
1129                 # round-robin MDTs to test DNE nodemap support
1130                 [ ! -d $DIR ] && do_node ${clients_arr[0]} mkdir -p $DIR
1131                 do_node ${clients_arr[0]} $LFS setdirstripe -c 1 -i \
1132                         $((fops_mds_index % MDSCOUNT)) $DIR/$tdir
1133                 ((fops_mds_index++))
1134         fi
1135 }
1136
1137 # acl test directory needs to be initialized on a privileged client
1138 fops_test_setup() {
1139         local admin=$(do_facet mgs $LCTL get_param -n nodemap.c0.admin_nodemap)
1140         local trust=$(do_facet mgs $LCTL get_param -n \
1141                 nodemap.c0.trusted_nodemap)
1142
1143         do_facet mgs $LCTL nodemap_modify --name c0 --property admin --value 1
1144         do_facet mgs $LCTL nodemap_modify --name c0 --property trusted --value 1
1145
1146         wait_nm_sync c0 admin_nodemap
1147         wait_nm_sync c0 trusted_nodemap
1148
1149         do_node ${clients_arr[0]} rm -rf $DIR/$tdir
1150         nm_test_mkdir
1151         do_node ${clients_arr[0]} chown $user $DIR/$tdir
1152
1153         do_facet mgs $LCTL nodemap_modify --name c0 \
1154                 --property admin --value $admin
1155         do_facet mgs $LCTL nodemap_modify --name c0 \
1156                 --property trusted --value $trust
1157
1158         # flush MDT locks to make sure they are reacquired before test
1159         do_node ${clients_arr[0]} $LCTL set_param \
1160                 ldlm.namespaces.$FSNAME-MDT*.lru_size=clear
1161
1162         wait_nm_sync c0 admin_nodemap
1163         wait_nm_sync c0 trusted_nodemap
1164 }
1165
1166 # fileset test directory needs to be initialized on a privileged client
1167 fileset_test_setup() {
1168         local nm=$1
1169
1170         if [ -n "$FILESET" -a -z "$SKIP_FILESET" ]; then
1171                 cleanup_mount $MOUNT
1172                 FILESET="" zconf_mount_clients $CLIENTS $MOUNT
1173         fi
1174
1175         local admin=$(do_facet mgs $LCTL get_param -n \
1176                 nodemap.${nm}.admin_nodemap)
1177         local trust=$(do_facet mgs $LCTL get_param -n \
1178                 nodemap.${nm}.trusted_nodemap)
1179
1180         do_facet mgs $LCTL nodemap_modify --name $nm --property admin --value 1
1181         do_facet mgs $LCTL nodemap_modify --name $nm --property trusted \
1182                 --value 1
1183
1184         wait_nm_sync $nm admin_nodemap
1185         wait_nm_sync $nm trusted_nodemap
1186
1187         # create directory and populate it for subdir mount
1188         do_node ${clients_arr[0]} mkdir $MOUNT/$subdir ||
1189                 error "unable to create dir $MOUNT/$subdir"
1190         do_node ${clients_arr[0]} touch $MOUNT/$subdir/this_is_$subdir ||
1191                 error "unable to create file $MOUNT/$subdir/this_is_$subdir"
1192         do_node ${clients_arr[0]} mkdir $MOUNT/$subdir/$subsubdir ||
1193                 error "unable to create dir $MOUNT/$subdir/$subsubdir"
1194         do_node ${clients_arr[0]} touch \
1195                         $MOUNT/$subdir/$subsubdir/this_is_$subsubdir ||
1196                 error "unable to create file \
1197                         $MOUNT/$subdir/$subsubdir/this_is_$subsubdir"
1198
1199         do_facet mgs $LCTL nodemap_modify --name $nm \
1200                 --property admin --value $admin
1201         do_facet mgs $LCTL nodemap_modify --name $nm \
1202                 --property trusted --value $trust
1203
1204         # flush MDT locks to make sure they are reacquired before test
1205         do_node ${clients_arr[0]} $LCTL set_param \
1206                 ldlm.namespaces.$FSNAME-MDT*.lru_size=clear
1207
1208         wait_nm_sync $nm admin_nodemap
1209         wait_nm_sync $nm trusted_nodemap
1210 }
1211
1212 # fileset test directory needs to be initialized on a privileged client
1213 fileset_test_cleanup() {
1214         local nm=$1
1215         local admin=$(do_facet mgs $LCTL get_param -n \
1216                 nodemap.${nm}.admin_nodemap)
1217         local trust=$(do_facet mgs $LCTL get_param -n \
1218                 nodemap.${nm}.trusted_nodemap)
1219
1220         do_facet mgs $LCTL nodemap_modify --name $nm --property admin --value 1
1221         do_facet mgs $LCTL nodemap_modify --name $nm --property trusted \
1222                 --value 1
1223
1224         wait_nm_sync $nm admin_nodemap
1225         wait_nm_sync $nm trusted_nodemap
1226
1227         # cleanup directory created for subdir mount
1228         do_node ${clients_arr[0]} rm -rf $MOUNT/$subdir ||
1229                 error "unable to remove dir $MOUNT/$subdir"
1230
1231         do_facet mgs $LCTL nodemap_modify --name $nm \
1232                 --property admin --value $admin
1233         do_facet mgs $LCTL nodemap_modify --name $nm \
1234                 --property trusted --value $trust
1235
1236         # flush MDT locks to make sure they are reacquired before test
1237         do_node ${clients_arr[0]} $LCTL set_param \
1238                 ldlm.namespaces.$FSNAME-MDT*.lru_size=clear
1239
1240         wait_nm_sync $nm admin_nodemap
1241         wait_nm_sync $nm trusted_nodemap
1242         if [ -n "$FILESET" -a -z "$SKIP_FILESET" ]; then
1243                 cleanup_mount $MOUNT
1244                 zconf_mount_clients $CLIENTS $MOUNT
1245         fi
1246 }
1247
1248 do_create_delete() {
1249         local run_u=$1
1250         local key=$2
1251         local testfile=$DIR/$tdir/$tfile
1252         local rc=0
1253         local c=0 d=0
1254         local qused_new
1255         if $run_u touch $testfile >& /dev/null; then
1256                 c=1
1257                 $run_u rm $testfile && d=1
1258         fi >& /dev/null
1259
1260         local res="$c $d"
1261         local expected=$(get_cr_del_expected $key)
1262         [ "$res" != "$expected" ] &&
1263                 error "test $key, wanted $expected, got $res" && rc=$((rc + 1))
1264         return $rc
1265 }
1266
1267 nodemap_check_quota() {
1268         local run_u="$1"
1269         $run_u lfs quota -q $DIR | awk '{ print $2; exit; }'
1270 }
1271
1272 do_fops_quota_test() {
1273         local run_u=$1
1274         # fuzz quota used to account for possible indirect blocks, etc
1275         local quota_fuzz=$(fs_log_size)
1276         local qused_orig=$(nodemap_check_quota "$run_u")
1277         local qused_high=$((qused_orig + quota_fuzz))
1278         local qused_low=$((qused_orig - quota_fuzz))
1279         local testfile=$DIR/$tdir/$tfile
1280         $run_u dd if=/dev/zero of=$testfile oflag=sync bs=1M count=1 \
1281                 >& /dev/null || error "unable to write quota test file"
1282         sync; sync_all_data || true
1283
1284         local qused_new=$(nodemap_check_quota "$run_u")
1285         [ $((qused_new)) -lt $((qused_low + 1024)) -o \
1286           $((qused_new)) -gt $((qused_high + 1024)) ] &&
1287                 error "$qused_new != $qused_orig + 1M after write, " \
1288                       "fuzz is $quota_fuzz"
1289         $run_u rm $testfile || error "unable to remove quota test file"
1290         wait_delete_completed_mds
1291
1292         qused_new=$(nodemap_check_quota "$run_u")
1293         [ $((qused_new)) -lt $((qused_low)) \
1294                 -o $((qused_new)) -gt $((qused_high)) ] &&
1295                 error "quota not reclaimed, expect $qused_orig, " \
1296                       "got $qused_new, fuzz $quota_fuzz"
1297 }
1298
1299 get_fops_mapped_user() {
1300         local cli_user=$1
1301
1302         for ((i=0; i < ${#FOPS_IDMAPS[@]}; i++)); do
1303                 for map in ${FOPS_IDMAPS[i]}; do
1304                         if [ $(cut -d: -f1 <<< "$map") == $cli_user ]; then
1305                                 cut -d: -f2 <<< "$map"
1306                                 return
1307                         fi
1308                 done
1309         done
1310         echo -1
1311 }
1312
1313 get_cr_del_expected() {
1314         local -a key
1315         IFS=":" read -a key <<< "$1"
1316         local mapmode="${key[0]}"
1317         local mds_user="${key[1]}"
1318         local cluster="${key[2]}"
1319         local cli_user="${key[3]}"
1320         local mode="0${key[4]}"
1321         local SUCCESS="1 1"
1322         local FAILURE="0 0"
1323         local noadmin=0
1324         local mapped=0
1325         local other=0
1326
1327         [[ $mapmode == *mapped* ]] && mapped=1
1328         # only c1 is mapped in these test cases
1329         [[ $mapmode == mapped_trusted* ]] && [ "$cluster" == "c0" ] && mapped=0
1330         [[ $mapmode == *noadmin* ]] && noadmin=1
1331
1332         # o+wx works as long as the user isn't mapped
1333         if [ $((mode & 3)) -eq 3 ]; then
1334                 other=1
1335         fi
1336
1337         # if client user is root, check if root is squashed
1338         if [ "$cli_user" == "0" ]; then
1339                 # squash root succeed, if other bit is on
1340                 case $noadmin in
1341                         0) echo $SUCCESS;;
1342                         1) [ "$other" == "1" ] && echo $SUCCESS
1343                            [ "$other" == "0" ] && echo $FAILURE;;
1344                 esac
1345                 return
1346         fi
1347         if [ "$mapped" == "0" ]; then
1348                 [ "$other" == "1" ] && echo $SUCCESS
1349                 [ "$other" == "0" ] && echo $FAILURE
1350                 return
1351         fi
1352
1353         # if mapped user is mds user, check for u+wx
1354         mapped_user=$(get_fops_mapped_user $cli_user)
1355         [ "$mapped_user" == "-1" ] &&
1356                 error "unable to find mapping for client user $cli_user"
1357
1358         if [ "$mapped_user" == "$mds_user" -a \
1359              $(((mode & 0300) == 0300)) -eq 1 ]; then
1360                 echo $SUCCESS
1361                 return
1362         fi
1363         if [ "$mapped_user" != "$mds_user" -a "$other" == "1" ]; then
1364                 echo $SUCCESS
1365                 return
1366         fi
1367         echo $FAILURE
1368 }
1369
1370 test_fops_admin_cli_i=""
1371 test_fops_chmod_dir() {
1372         local current_cli_i=$1
1373         local perm_bits=$2
1374         local dir_to_chmod=$3
1375         local new_admin_cli_i=""
1376
1377         # do we need to set up a new admin client?
1378         [ "$current_cli_i" == "0" ] && [ "$test_fops_admin_cli_i" != "1" ] &&
1379                 new_admin_cli_i=1
1380         [ "$current_cli_i" != "0" ] && [ "$test_fops_admin_cli_i" != "0" ] &&
1381                 new_admin_cli_i=0
1382
1383         # if only one client, and non-admin, need to flip admin everytime
1384         if [ "$num_clients" == "1" ]; then
1385                 test_fops_admin_client=$clients
1386                 test_fops_admin_val=$(do_facet mgs $LCTL get_param -n \
1387                         nodemap.c0.admin_nodemap)
1388                 if [ "$test_fops_admin_val" != "1" ]; then
1389                         do_facet mgs $LCTL nodemap_modify \
1390                                 --name c0 \
1391                                 --property admin \
1392                                 --value 1
1393                         wait_nm_sync c0 admin_nodemap
1394                 fi
1395         elif [ "$new_admin_cli_i" != "" ]; then
1396                 # restore admin val to old admin client
1397                 if [ "$test_fops_admin_cli_i" != "" ] &&
1398                                 [ "$test_fops_admin_val" != "1" ]; then
1399                         do_facet mgs $LCTL nodemap_modify \
1400                                 --name c${test_fops_admin_cli_i} \
1401                                 --property admin \
1402                                 --value $test_fops_admin_val
1403                         wait_nm_sync c${test_fops_admin_cli_i} admin_nodemap
1404                 fi
1405
1406                 test_fops_admin_cli_i=$new_admin_cli_i
1407                 test_fops_admin_client=${clients_arr[$new_admin_cli_i]}
1408                 test_fops_admin_val=$(do_facet mgs $LCTL get_param -n \
1409                         nodemap.c${new_admin_cli_i}.admin_nodemap)
1410
1411                 if [ "$test_fops_admin_val" != "1" ]; then
1412                         do_facet mgs $LCTL nodemap_modify \
1413                                 --name c${new_admin_cli_i} \
1414                                 --property admin \
1415                                 --value 1
1416                         wait_nm_sync c${new_admin_cli_i} admin_nodemap
1417                 fi
1418         fi
1419
1420         do_node $test_fops_admin_client chmod $perm_bits $DIR/$tdir || return 1
1421
1422         # remove admin for single client if originally non-admin
1423         if [ "$num_clients" == "1" ] && [ "$test_fops_admin_val" != "1" ]; then
1424                 do_facet mgs $LCTL nodemap_modify --name c0 --property admin \
1425                         --value 0
1426                 wait_nm_sync c0 admin_nodemap
1427         fi
1428
1429         return 0
1430 }
1431
1432 test_fops() {
1433         local mapmode="$1"
1434         local single_client="$2"
1435         local client_user_list=([0]="0 $((IDBASE+3))"
1436                                 [1]="0 $((IDBASE+5))")
1437         local mds_users="-1 0"
1438         local mds_i
1439         local rc=0
1440         local perm_bit_list="3 $((0300))"
1441         # SLOW tests 000-007, 010-070, 100-700 (octal modes)
1442         if [ "$SLOW" == "yes" ]; then
1443                 perm_bit_list="0 $(seq 1 7) $(seq 8 8 63) $(seq 64 64 511) \
1444                                $((0303))"
1445                 client_user_list=([0]="0 $((IDBASE+3)) $((IDBASE+4))"
1446                                   [1]="0 $((IDBASE+5)) $((IDBASE+6))")
1447                 mds_users="-1 0 1 2"
1448         fi
1449
1450         # force single_client to speed up test
1451         [ "$SLOW" == "yes" ] ||
1452                 single_client=1
1453         # step through mds users. -1 means root
1454         for mds_i in $mds_users; do
1455                 local user=$((mds_i + IDBASE))
1456                 local client
1457                 local x
1458
1459                 [ "$mds_i" == "-1" ] && user=0
1460
1461                 echo mkdir -p $DIR/$tdir
1462                 fops_test_setup
1463                 local cli_i=0
1464                 for client in $clients; do
1465                         local u
1466                         for u in ${client_user_list[$cli_i]}; do
1467                                 local run_u="do_node $client \
1468                                              $RUNAS_CMD -u$u -g$u -G$u"
1469                                 for perm_bits in $perm_bit_list; do
1470                                         local mode=$(printf %03o $perm_bits)
1471                                         local key
1472                                         key="$mapmode:$user:c$cli_i:$u:$mode"
1473                                         test_fops_chmod_dir $cli_i $mode \
1474                                                 $DIR/$tdir ||
1475                                                         error cannot chmod $key
1476                                         do_create_delete "$run_u" "$key"
1477                                 done
1478
1479                                 # check quota
1480                                 test_fops_chmod_dir $cli_i 777 $DIR/$tdir ||
1481                                         error cannot chmod $key
1482                                 do_fops_quota_test "$run_u"
1483                         done
1484
1485                         cli_i=$((cli_i + 1))
1486                         [ "$single_client" == "1" ] && break
1487                 done
1488                 rm -rf $DIR/$tdir
1489         done
1490         return $rc
1491 }
1492
1493 nodemap_version_check () {
1494         remote_mgs_nodsh && skip "remote MGS with nodsh" && return 1
1495         [ "$MGS_VERSION" -lt $(version_code 2.5.53) ] &&
1496                 skip "No nodemap on $MGS_VERSION MGS < 2.5.53" &&
1497                 return 1
1498         return 0
1499 }
1500
1501 nodemap_test_setup() {
1502         local rc
1503         local active_nodemap=1
1504
1505         [ "$1" == "0" ] && active_nodemap=0
1506
1507         do_nodes $(comma_list $(all_mdts_nodes)) \
1508                 $LCTL set_param mdt.*.identity_upcall=NONE
1509
1510         rc=0
1511         create_fops_nodemaps
1512         rc=$?
1513         [[ $rc != 0 ]] && error "adding fops nodemaps failed $rc"
1514
1515         do_facet mgs $LCTL nodemap_activate $active_nodemap
1516         wait_nm_sync active
1517
1518         do_facet mgs $LCTL nodemap_modify --name default \
1519                 --property admin --value 1
1520         wait_nm_sync default admin_nodemap
1521         do_facet mgs $LCTL nodemap_modify --name default \
1522                 --property trusted --value 1
1523         wait_nm_sync default trusted_nodemap
1524 }
1525
1526 nodemap_test_cleanup() {
1527         trap 0
1528         delete_fops_nodemaps
1529         rc=$?
1530         [[ $rc != 0 ]] && error "removing fops nodemaps failed $rc"
1531
1532         do_facet mgs $LCTL nodemap_modify --name default \
1533                  --property admin --value 0
1534         wait_nm_sync default admin_nodemap
1535         do_facet mgs $LCTL nodemap_modify --name default \
1536                  --property trusted --value 0
1537         wait_nm_sync default trusted_nodemap
1538
1539         do_facet mgs $LCTL nodemap_activate 0
1540         wait_nm_sync active 0
1541
1542         export SK_UNIQUE_NM=false
1543         return 0
1544 }
1545
1546 nodemap_clients_admin_trusted() {
1547         local admin=$1
1548         local tr=$2
1549         local i=0
1550         for client in $clients; do
1551                 do_facet mgs $LCTL nodemap_modify --name c0 \
1552                         --property admin --value $admin
1553                 do_facet mgs $LCTL nodemap_modify --name c0 \
1554                         --property trusted --value $tr
1555                 i=$((i + 1))
1556         done
1557         wait_nm_sync c$((i - 1)) admin_nodemap
1558         wait_nm_sync c$((i - 1)) trusted_nodemap
1559 }
1560
1561 test_16() {
1562         nodemap_version_check || return 0
1563         nodemap_test_setup 0
1564
1565         trap nodemap_test_cleanup EXIT
1566         test_fops all_off
1567         nodemap_test_cleanup
1568 }
1569 run_test 16 "test nodemap all_off fileops"
1570
1571 test_17() {
1572         if $SHARED_KEY &&
1573         [ "$MDS1_VERSION" -lt $(version_code 2.11.55) ]; then
1574                 skip "Need MDS >= 2.11.55"
1575         fi
1576
1577         nodemap_version_check || return 0
1578         nodemap_test_setup
1579
1580         trap nodemap_test_cleanup EXIT
1581         nodemap_clients_admin_trusted 0 1
1582         test_fops trusted_noadmin 1
1583         nodemap_test_cleanup
1584 }
1585 run_test 17 "test nodemap trusted_noadmin fileops"
1586
1587 test_18() {
1588         if $SHARED_KEY &&
1589         [ "$MDS1_VERSION" -lt $(version_code 2.11.55) ]; then
1590                 skip "Need MDS >= 2.11.55"
1591         fi
1592
1593         nodemap_version_check || return 0
1594         nodemap_test_setup
1595
1596         trap nodemap_test_cleanup EXIT
1597         nodemap_clients_admin_trusted 0 0
1598         test_fops mapped_noadmin 1
1599         nodemap_test_cleanup
1600 }
1601 run_test 18 "test nodemap mapped_noadmin fileops"
1602
1603 test_19() {
1604         if $SHARED_KEY &&
1605         [ "$MDS1_VERSION" -lt $(version_code 2.11.55) ]; then
1606                 skip "Need MDS >= 2.11.55"
1607         fi
1608
1609         nodemap_version_check || return 0
1610         nodemap_test_setup
1611
1612         trap nodemap_test_cleanup EXIT
1613         nodemap_clients_admin_trusted 1 1
1614         test_fops trusted_admin 1
1615         nodemap_test_cleanup
1616 }
1617 run_test 19 "test nodemap trusted_admin fileops"
1618
1619 test_20() {
1620         if $SHARED_KEY &&
1621         [ "$MDS1_VERSION" -lt $(version_code 2.11.55) ]; then
1622                 skip "Need MDS >= 2.11.55"
1623         fi
1624
1625         nodemap_version_check || return 0
1626         nodemap_test_setup
1627
1628         trap nodemap_test_cleanup EXIT
1629         nodemap_clients_admin_trusted 1 0
1630         test_fops mapped_admin 1
1631         nodemap_test_cleanup
1632 }
1633 run_test 20 "test nodemap mapped_admin fileops"
1634
1635 test_21() {
1636         if $SHARED_KEY &&
1637         [ "$MDS1_VERSION" -lt $(version_code 2.11.55) ]; then
1638                 skip "Need MDS >= 2.11.55"
1639         fi
1640
1641         nodemap_version_check || return 0
1642         nodemap_test_setup
1643
1644         trap nodemap_test_cleanup EXIT
1645         local x=1
1646         local i=0
1647         for client in $clients; do
1648                 do_facet mgs $LCTL nodemap_modify --name c${i} \
1649                         --property admin --value 0
1650                 do_facet mgs $LCTL nodemap_modify --name c${i} \
1651                         --property trusted --value $x
1652                 x=0
1653                 i=$((i + 1))
1654         done
1655         wait_nm_sync c$((i - 1)) trusted_nodemap
1656
1657         test_fops mapped_trusted_noadmin
1658         nodemap_test_cleanup
1659 }
1660 run_test 21 "test nodemap mapped_trusted_noadmin fileops"
1661
1662 test_22() {
1663         if $SHARED_KEY &&
1664         [ "$MDS1_VERSION" -lt $(version_code 2.11.55) ]; then
1665                 skip "Need MDS >= 2.11.55"
1666         fi
1667
1668         nodemap_version_check || return 0
1669         nodemap_test_setup
1670
1671         trap nodemap_test_cleanup EXIT
1672         local x=1
1673         local i=0
1674         for client in $clients; do
1675                 do_facet mgs $LCTL nodemap_modify --name c${i} \
1676                         --property admin --value 1
1677                 do_facet mgs $LCTL nodemap_modify --name c${i} \
1678                         --property trusted --value $x
1679                 x=0
1680                 i=$((i + 1))
1681         done
1682         wait_nm_sync c$((i - 1)) trusted_nodemap
1683
1684         test_fops mapped_trusted_admin
1685         nodemap_test_cleanup
1686 }
1687 run_test 22 "test nodemap mapped_trusted_admin fileops"
1688
1689 # acl test directory needs to be initialized on a privileged client
1690 nodemap_acl_test_setup() {
1691         local admin=$(do_facet mgs $LCTL get_param -n \
1692                       nodemap.c0.admin_nodemap)
1693         local trust=$(do_facet mgs $LCTL get_param -n \
1694                       nodemap.c0.trusted_nodemap)
1695
1696         do_facet mgs $LCTL nodemap_modify --name c0 --property admin --value 1
1697         do_facet mgs $LCTL nodemap_modify --name c0 --property trusted --value 1
1698
1699         wait_nm_sync c0 admin_nodemap
1700         wait_nm_sync c0 trusted_nodemap
1701
1702         do_node ${clients_arr[0]} rm -rf $DIR/$tdir
1703         nm_test_mkdir
1704         do_node ${clients_arr[0]} chmod a+rwx $DIR/$tdir ||
1705                 error unable to chmod a+rwx test dir $DIR/$tdir
1706
1707         do_facet mgs $LCTL nodemap_modify --name c0 \
1708                 --property admin --value $admin
1709         do_facet mgs $LCTL nodemap_modify --name c0 \
1710                 --property trusted --value $trust
1711
1712         wait_nm_sync c0 trusted_nodemap
1713 }
1714
1715 # returns 0 if the number of ACLs does not change on the second (mapped) client
1716 # after being set on the first client
1717 nodemap_acl_test() {
1718         local user="$1"
1719         local set_client="$2"
1720         local get_client="$3"
1721         local check_setfacl="$4"
1722         local setfacl_error=0
1723         local testfile=$DIR/$tdir/$tfile
1724         local RUNAS_USER="$RUNAS_CMD -u $user"
1725         local acl_count=0
1726         local acl_count_post=0
1727
1728         nodemap_acl_test_setup
1729         sleep 5
1730
1731         do_node $set_client $RUNAS_USER touch $testfile
1732
1733         # ACL masks aren't filtered by nodemap code, so we ignore them
1734         acl_count=$(do_node $get_client getfacl $testfile | grep -v mask |
1735                 wc -l)
1736         do_node $set_client $RUNAS_USER setfacl -m $user:rwx $testfile ||
1737                 setfacl_error=1
1738
1739         # if check setfacl is set to 1, then it's supposed to error
1740         if [ "$check_setfacl" == "1" ]; then
1741                 [ "$setfacl_error" != "1" ] && return 1
1742                 return 0
1743         fi
1744         [ "$setfacl_error" == "1" ] && echo "WARNING: unable to setfacl"
1745
1746         acl_count_post=$(do_node $get_client getfacl $testfile | grep -v mask |
1747                 wc -l)
1748         [ $acl_count -eq $acl_count_post ] && return 0
1749         return 1
1750 }
1751
1752 test_23a() {
1753         [ $num_clients -lt 2 ] && skip "Need 2 clients at least" && return
1754         nodemap_version_check || return 0
1755         nodemap_test_setup
1756
1757         trap nodemap_test_cleanup EXIT
1758         # 1 trusted cluster, 1 mapped cluster
1759         local unmapped_fs=$((IDBASE+0))
1760         local unmapped_c1=$((IDBASE+5))
1761         local mapped_fs=$((IDBASE+2))
1762         local mapped_c0=$((IDBASE+4))
1763         local mapped_c1=$((IDBASE+6))
1764
1765         do_facet mgs $LCTL nodemap_modify --name c0 --property admin --value 1
1766         do_facet mgs $LCTL nodemap_modify --name c0 --property trusted --value 1
1767
1768         do_facet mgs $LCTL nodemap_modify --name c1 --property admin --value 0
1769         do_facet mgs $LCTL nodemap_modify --name c1 --property trusted --value 0
1770
1771         wait_nm_sync c1 trusted_nodemap
1772
1773         # setfacl on trusted cluster to unmapped user, verify it's not seen
1774         nodemap_acl_test $unmapped_fs ${clients_arr[0]} ${clients_arr[1]} ||
1775                 error "acl count (1)"
1776
1777         # setfacl on trusted cluster to mapped user, verify it's seen
1778         nodemap_acl_test $mapped_fs ${clients_arr[0]} ${clients_arr[1]} &&
1779                 error "acl count (2)"
1780
1781         # setfacl on mapped cluster to mapped user, verify it's seen
1782         nodemap_acl_test $mapped_c1 ${clients_arr[1]} ${clients_arr[0]} &&
1783                 error "acl count (3)"
1784
1785         # setfacl on mapped cluster to unmapped user, verify error
1786         nodemap_acl_test $unmapped_fs ${clients_arr[1]} ${clients_arr[0]} 1 ||
1787                 error "acl count (4)"
1788
1789         # 2 mapped clusters
1790         do_facet mgs $LCTL nodemap_modify --name c0 --property admin --value 0
1791         do_facet mgs $LCTL nodemap_modify --name c0 --property trusted --value 0
1792
1793         wait_nm_sync c0 trusted_nodemap
1794
1795         # setfacl to mapped user on c1, also mapped to c0, verify it's seen
1796         nodemap_acl_test $mapped_c1 ${clients_arr[1]} ${clients_arr[0]} &&
1797                 error "acl count (5)"
1798
1799         # setfacl to mapped user on c1, not mapped to c0, verify not seen
1800         nodemap_acl_test $unmapped_c1 ${clients_arr[1]} ${clients_arr[0]} ||
1801                 error "acl count (6)"
1802
1803         nodemap_test_cleanup
1804 }
1805 run_test 23a "test mapped regular ACLs"
1806
1807 test_23b() { #LU-9929
1808         [ $num_clients -lt 2 ] && skip "Need 2 clients at least"
1809         [ "$MGS_VERSION" -lt $(version_code 2.10.53) ] &&
1810                 skip "Need MGS >= 2.10.53"
1811
1812         export SK_UNIQUE_NM=true
1813         nodemap_test_setup
1814         trap nodemap_test_cleanup EXIT
1815
1816         local testdir=$DIR/$tdir
1817         local fs_id=$((IDBASE+10))
1818         local unmapped_id
1819         local mapped_id
1820         local fs_user
1821
1822         do_facet mgs $LCTL nodemap_modify --name c0 --property admin --value 1
1823         wait_nm_sync c0 admin_nodemap
1824         do_facet mgs $LCTL nodemap_modify --name c1 --property admin --value 1
1825         wait_nm_sync c1 admin_nodemap
1826         do_facet mgs $LCTL nodemap_modify --name c1 --property trusted --value 1
1827         wait_nm_sync c1 trusted_nodemap
1828
1829         # Add idmap $ID0:$fs_id (500:60010)
1830         do_facet mgs $LCTL nodemap_add_idmap --name c0 --idtype gid \
1831                 --idmap $ID0:$fs_id ||
1832                 error "add idmap $ID0:$fs_id to nodemap c0 failed"
1833         wait_nm_sync c0 idmap
1834
1835         # set/getfacl default acl on client 1 (unmapped gid=500)
1836         do_node ${clients_arr[0]} rm -rf $testdir
1837         do_node ${clients_arr[0]} mkdir -p $testdir
1838         # Here, USER0=$(getent passwd | grep :$ID0:$ID0: | cut -d: -f1)
1839         do_node ${clients_arr[0]} setfacl -R -d -m group:$USER0:rwx $testdir ||
1840                 error "setfacl $testdir on ${clients_arr[0]} failed"
1841         unmapped_id=$(do_node ${clients_arr[0]} getfacl $testdir |
1842                         grep -E "default:group:.*:rwx" | awk -F: '{print $3}')
1843         [ "$unmapped_id" = "$USER0" ] ||
1844                 error "gid=$ID0 was not unmapped correctly on ${clients_arr[0]}"
1845
1846         # getfacl default acl on client 2 (mapped gid=60010)
1847         mapped_id=$(do_node ${clients_arr[1]} getfacl $testdir |
1848                         grep -E "default:group:.*:rwx" | awk -F: '{print $3}')
1849         fs_user=$(do_node ${clients_arr[1]} getent passwd |
1850                         grep :$fs_id:$fs_id: | cut -d: -f1)
1851         [ -z "$fs_user" ] && fs_user=$fs_id
1852         [ $mapped_id -eq $fs_id -o "$mapped_id" = "$fs_user" ] ||
1853                 error "Should return gid=$fs_id or $fs_user on client2"
1854
1855         rm -rf $testdir
1856         nodemap_test_cleanup
1857         export SK_UNIQUE_NM=false
1858 }
1859 run_test 23b "test mapped default ACLs"
1860
1861 test_24() {
1862         nodemap_test_setup
1863
1864         trap nodemap_test_cleanup EXIT
1865         do_nodes $(comma_list $(all_server_nodes)) $LCTL get_param -R nodemap
1866
1867         nodemap_test_cleanup
1868 }
1869 run_test 24 "check nodemap proc files for LBUGs and Oopses"
1870
1871 test_25() {
1872         local tmpfile=$(mktemp)
1873         local tmpfile2=$(mktemp)
1874         local tmpfile3=$(mktemp)
1875         local tmpfile4=$(mktemp)
1876         local subdir=c0dir
1877         local client
1878
1879         nodemap_version_check || return 0
1880
1881         # stop clients for this test
1882         zconf_umount_clients $CLIENTS $MOUNT ||
1883             error "unable to umount clients $CLIENTS"
1884
1885         export SK_UNIQUE_NM=true
1886         nodemap_test_setup
1887
1888         # enable trusted/admin for setquota call in cleanup_and_setup_lustre()
1889         i=0
1890         for client in $clients; do
1891                 do_facet mgs $LCTL nodemap_modify --name c${i} \
1892                         --property admin --value 1
1893                 do_facet mgs $LCTL nodemap_modify --name c${i} \
1894                         --property trusted --value 1
1895                 ((i++))
1896         done
1897         wait_nm_sync c$((i - 1)) trusted_nodemap
1898
1899         trap nodemap_test_cleanup EXIT
1900
1901         # create a new, empty nodemap, and add fileset info to it
1902         do_facet mgs $LCTL nodemap_add test25 ||
1903                 error "unable to create nodemap $testname"
1904         do_facet mgs $LCTL set_param -P nodemap.$testname.fileset=/$subdir ||
1905                 error "unable to add fileset info to nodemap test25"
1906
1907         wait_nm_sync test25 id
1908
1909         do_facet mgs $LCTL nodemap_info > $tmpfile
1910         do_facet mds $LCTL nodemap_info > $tmpfile2
1911
1912         if ! $SHARED_KEY; then
1913                 # will conflict with SK's nodemaps
1914                 cleanup_and_setup_lustre
1915         fi
1916         # stop clients for this test
1917         zconf_umount_clients $CLIENTS $MOUNT ||
1918             error "unable to umount clients $CLIENTS"
1919
1920         do_facet mgs $LCTL nodemap_info > $tmpfile3
1921         diff -q $tmpfile3 $tmpfile >& /dev/null ||
1922                 error "nodemap_info diff on MGS after remount"
1923
1924         do_facet mds $LCTL nodemap_info > $tmpfile4
1925         diff -q $tmpfile4 $tmpfile2 >& /dev/null ||
1926                 error "nodemap_info diff on MDS after remount"
1927
1928         # cleanup nodemap
1929         do_facet mgs $LCTL nodemap_del test25 ||
1930             error "cannot delete nodemap test25 from config"
1931         nodemap_test_cleanup
1932         # restart clients previously stopped
1933         zconf_mount_clients $CLIENTS $MOUNT ||
1934             error "unable to mount clients $CLIENTS"
1935
1936         rm -f $tmpfile $tmpfile2
1937         export SK_UNIQUE_NM=false
1938 }
1939 run_test 25 "test save and reload nodemap config"
1940
1941 test_26() {
1942         nodemap_version_check || return 0
1943
1944         local large_i=32000
1945
1946         do_facet mgs "seq -f 'c%g' $large_i | xargs -n1 $LCTL nodemap_add"
1947         wait_nm_sync c$large_i admin_nodemap
1948
1949         do_facet mgs "seq -f 'c%g' $large_i | xargs -n1 $LCTL nodemap_del"
1950         wait_nm_sync c$large_i admin_nodemap
1951 }
1952 run_test 26 "test transferring very large nodemap"
1953
1954 nodemap_exercise_fileset() {
1955         local nm="$1"
1956         local loop=0
1957         local check_proj=true
1958
1959         (( $MDS1_VERSION >= $(version_code 2.14.52) )) || check_proj=false
1960
1961         # setup
1962         if [ "$nm" == "default" ]; then
1963                 do_facet mgs $LCTL nodemap_activate 1
1964                 wait_nm_sync active
1965                 do_facet mgs $LCTL nodemap_modify --name default \
1966                         --property admin --value 1
1967                 do_facet mgs $LCTL nodemap_modify --name default \
1968                         --property trusted --value 1
1969                 wait_nm_sync default admin_nodemap
1970                 wait_nm_sync default trusted_nodemap
1971                 check_proj=false
1972         else
1973                 nodemap_test_setup
1974         fi
1975         if $SHARED_KEY; then
1976                 export SK_UNIQUE_NM=true
1977         else
1978                 # will conflict with SK's nodemaps
1979                 trap "fileset_test_cleanup $nm" EXIT
1980         fi
1981         fileset_test_setup "$nm"
1982
1983         # add fileset info to $nm nodemap
1984         if ! combined_mgs_mds; then
1985             do_facet mgs $LCTL set_param nodemap.${nm}.fileset=/$subdir ||
1986                 error "unable to add fileset info to $nm nodemap on MGS"
1987         fi
1988         do_facet mgs $LCTL set_param -P nodemap.${nm}.fileset=/$subdir ||
1989                error "unable to add fileset info to $nm nodemap for servers"
1990         wait_nm_sync $nm fileset "nodemap.${nm}.fileset=/$subdir"
1991
1992         if $check_proj; then
1993                 do_facet mgs $LCTL nodemap_modify --name $nm \
1994                          --property admin --value 1
1995                 wait_nm_sync $nm admin_nodemap
1996                 do_facet mgs $LCTL nodemap_modify --name $nm \
1997                          --property trusted --value 0
1998                 wait_nm_sync $nm trusted_nodemap
1999                 do_facet mgs $LCTL nodemap_modify --name $nm \
2000                          --property map_mode --value projid
2001                 wait_nm_sync $nm map_mode
2002                 do_facet mgs $LCTL nodemap_add_idmap --name $nm \
2003                          --idtype projid --idmap 1:1
2004                 do_facet mgs $LCTL nodemap_modify --name $nm \
2005                          --property deny_unknown --value 1
2006                 wait_nm_sync $nm deny_unknown
2007         fi
2008
2009         # re-mount client
2010         zconf_umount_clients ${clients_arr[0]} $MOUNT ||
2011                 error "unable to umount client ${clients_arr[0]}"
2012         # set some generic fileset to trigger SSK code
2013         export FILESET=/
2014         zconf_mount_clients ${clients_arr[0]} $MOUNT $MOUNT_OPTS ||
2015                 error "unable to remount client ${clients_arr[0]}"
2016         unset FILESET
2017
2018         # test mount point content
2019         do_node ${clients_arr[0]} test -f $MOUNT/this_is_$subdir ||
2020                 error "fileset not taken into account"
2021
2022         if $check_proj; then
2023                 do_node ${clients_arr[0]} $LFS setquota -p 1 -b 10000 -B 11000 \
2024                         -i 0 -I 0 $MOUNT || error "setquota -p 1 failed"
2025                 do_node ${clients_arr[0]} $LFS setquota -p 2 -b 10000 -B 11000 \
2026                         -i 0 -I 0 $MOUNT && error "setquota -p 2 should fail"
2027         fi
2028
2029         # re-mount client with sub-subdir
2030         zconf_umount_clients ${clients_arr[0]} $MOUNT ||
2031                 error "unable to umount client ${clients_arr[0]}"
2032         export FILESET=/$subsubdir
2033         zconf_mount_clients ${clients_arr[0]} $MOUNT $MOUNT_OPTS ||
2034                 error "unable to remount client ${clients_arr[0]}"
2035         unset FILESET
2036
2037         # test mount point content
2038         do_node ${clients_arr[0]} test -f $MOUNT/this_is_$subsubdir ||
2039                 error "subdir of fileset not taken into account"
2040
2041         # remove fileset info from nodemap
2042         do_facet mgs $LCTL nodemap_set_fileset --name $nm --fileset clear ||
2043                 error "unable to delete fileset info on $nm nodemap"
2044         wait_update_facet mgs "$LCTL get_param nodemap.${nm}.fileset" \
2045                           "nodemap.${nm}.fileset=" ||
2046                 error "fileset info still not cleared on $nm nodemap"
2047         do_facet mgs $LCTL set_param -P nodemap.${nm}.fileset=clear ||
2048                 error "unable to reset fileset info on $nm nodemap"
2049         wait_nm_sync $nm fileset "nodemap.${nm}.fileset="
2050
2051         # re-mount client
2052         zconf_umount_clients ${clients_arr[0]} $MOUNT ||
2053                 error "unable to umount client ${clients_arr[0]}"
2054         zconf_mount_clients ${clients_arr[0]} $MOUNT $MOUNT_OPTS ||
2055                 error "unable to remount client ${clients_arr[0]}"
2056
2057         # test mount point content
2058         if ! $(do_node ${clients_arr[0]} test -d $MOUNT/$subdir); then
2059                 ls $MOUNT
2060                 error "fileset not cleared on $nm nodemap"
2061         fi
2062
2063         # back to non-nodemap setup
2064         if $SHARED_KEY; then
2065                 export SK_UNIQUE_NM=false
2066                 zconf_umount_clients ${clients_arr[0]} $MOUNT ||
2067                         error "unable to umount client ${clients_arr[0]}"
2068         fi
2069         fileset_test_cleanup "$nm"
2070         if [ "$nm" == "default" ]; then
2071                 do_facet mgs $LCTL nodemap_modify --name default \
2072                          --property admin --value 0
2073                 do_facet mgs $LCTL nodemap_modify --name default \
2074                          --property trusted --value 0
2075                 wait_nm_sync default admin_nodemap
2076                 wait_nm_sync default trusted_nodemap
2077                 do_facet mgs $LCTL nodemap_activate 0
2078                 wait_nm_sync active 0
2079                 trap 0
2080                 export SK_UNIQUE_NM=false
2081         else
2082                 nodemap_test_cleanup
2083         fi
2084         if $SHARED_KEY; then
2085                 zconf_mount_clients ${clients_arr[0]} $MOUNT $MOUNT_OPTS ||
2086                         error "unable to remount client ${clients_arr[0]}"
2087         fi
2088 }
2089
2090 test_27a() {
2091         [ "$MDS1_VERSION" -lt $(version_code 2.11.50) ] &&
2092                 skip "Need MDS >= 2.11.50"
2093
2094         for nm in "default" "c0"; do
2095                 local subdir="subdir_${nm}"
2096                 local subsubdir="subsubdir_${nm}"
2097
2098                 if [ "$nm" == "default" ] && [ "$SHARED_KEY" == "true" ]; then
2099                         echo "Skipping nodemap $nm with SHARED_KEY";
2100                         continue;
2101                 fi
2102
2103                 echo "Exercising fileset for nodemap $nm"
2104                 nodemap_exercise_fileset "$nm"
2105         done
2106 }
2107 run_test 27a "test fileset in various nodemaps"
2108
2109 test_27b() { #LU-10703
2110         [ "$MDS1_VERSION" -lt $(version_code 2.11.50) ] &&
2111                 skip "Need MDS >= 2.11.50"
2112         [[ $MDSCOUNT -lt 2 ]] && skip "needs >= 2 MDTs"
2113
2114         nodemap_test_setup
2115         trap nodemap_test_cleanup EXIT
2116
2117         # Add the nodemaps and set their filesets
2118         for i in $(seq 1 $MDSCOUNT); do
2119                 do_facet mgs $LCTL nodemap_del nm$i 2>/dev/null
2120                 do_facet mgs $LCTL nodemap_add nm$i ||
2121                         error "add nodemap nm$i failed"
2122                 wait_nm_sync nm$i "" "" "-N"
2123
2124                 if ! combined_mgs_mds; then
2125                         do_facet mgs \
2126                                 $LCTL set_param nodemap.nm$i.fileset=/dir$i ||
2127                                 error "set nm$i.fileset=/dir$i failed on MGS"
2128                 fi
2129                 do_facet mgs $LCTL set_param -P nodemap.nm$i.fileset=/dir$i ||
2130                         error "set nm$i.fileset=/dir$i failed on servers"
2131                 wait_nm_sync nm$i fileset "nodemap.nm$i.fileset=/dir$i"
2132         done
2133
2134         # Check if all the filesets are correct
2135         for i in $(seq 1 $MDSCOUNT); do
2136                 fileset=$(do_facet mds$i \
2137                           $LCTL get_param -n nodemap.nm$i.fileset)
2138                 [ "$fileset" = "/dir$i" ] ||
2139                         error "nm$i.fileset $fileset != /dir$i on mds$i"
2140                 do_facet mgs $LCTL nodemap_del nm$i ||
2141                         error "delete nodemap nm$i failed"
2142         done
2143
2144         nodemap_test_cleanup
2145 }
2146 run_test 27b "The new nodemap won't clear the old nodemap's fileset"
2147
2148 test_28() {
2149         if ! $SHARED_KEY; then
2150                 skip "need shared key feature for this test" && return
2151         fi
2152         mkdir -p $DIR/$tdir || error "mkdir failed"
2153         touch $DIR/$tdir/$tdir.out || error "touch failed"
2154         if [ ! -f $DIR/$tdir/$tdir.out ]; then
2155                 error "read before rotation failed"
2156         fi
2157         # store top key identity to ensure rotation has occurred
2158         SK_IDENTITY_OLD=$(lctl get_param *.*.*srpc* | grep "expire" |
2159                 head -1 | awk '{print $15}' | cut -c1-8)
2160         do_facet $SINGLEMDS lfs flushctx ||
2161                  error "could not run flushctx on $SINGLEMDS"
2162         sleep 5
2163         lfs flushctx || error "could not run flushctx on client"
2164         sleep 5
2165         # verify new key is in place
2166         SK_IDENTITY_NEW=$(lctl get_param *.*.*srpc* | grep "expire" |
2167                 head -1 | awk '{print $15}' | cut -c1-8)
2168         if [ $SK_IDENTITY_OLD == $SK_IDENTITY_NEW ]; then
2169                 error "key did not rotate correctly"
2170         fi
2171         if [ ! -f $DIR/$tdir/$tdir.out ]; then
2172                 error "read after rotation failed"
2173         fi
2174 }
2175 run_test 28 "check shared key rotation method"
2176
2177 test_29() {
2178         if ! $SHARED_KEY; then
2179                 skip "need shared key feature for this test" && return
2180         fi
2181         if [ $SK_FLAVOR != "ski" ] && [ $SK_FLAVOR != "skpi" ]; then
2182                 skip "test only valid if integrity is active"
2183         fi
2184         rm -r $DIR/$tdir
2185         mkdir $DIR/$tdir || error "mkdir"
2186         touch $DIR/$tdir/$tfile || error "touch"
2187         zconf_umount_clients ${clients_arr[0]} $MOUNT ||
2188                 error "unable to umount clients"
2189         do_node ${clients_arr[0]} "keyctl show |
2190                 awk '/lustre/ { print \\\$1 }' | xargs -IX keyctl unlink X"
2191         OLD_SK_PATH=$SK_PATH
2192         export SK_PATH=/dev/null
2193         if zconf_mount_clients ${clients_arr[0]} $MOUNT; then
2194                 export SK_PATH=$OLD_SK_PATH
2195                 do_node ${clients_arr[0]} "ls $DIR/$tdir/$tfile"
2196                 if [ $? -eq 0 ]; then
2197                         error "able to mount and read without key"
2198                 else
2199                         error "able to mount without key"
2200                 fi
2201         else
2202                 export SK_PATH=$OLD_SK_PATH
2203                 do_node ${clients_arr[0]} "keyctl show |
2204                         awk '/lustre/ { print \\\$1 }' |
2205                         xargs -IX keyctl unlink X"
2206         fi
2207         zconf_mount_clients ${clients_arr[0]} $MOUNT ||
2208                 error "unable to mount clients"
2209 }
2210 run_test 29 "check for missing shared key"
2211
2212 test_30() {
2213         if ! $SHARED_KEY; then
2214                 skip "need shared key feature for this test" && return
2215         fi
2216         if [ $SK_FLAVOR != "ski" ] && [ $SK_FLAVOR != "skpi" ]; then
2217                 skip "test only valid if integrity is active"
2218         fi
2219         mkdir -p $DIR/$tdir || error "mkdir failed"
2220         touch $DIR/$tdir/$tdir.out || error "touch failed"
2221         zconf_umount_clients ${clients_arr[0]} $MOUNT ||
2222                 error "unable to umount clients"
2223         # unload keys from ring
2224         do_node ${clients_arr[0]} "keyctl show |
2225                 awk '/lustre/ { print \\\$1 }' | xargs -IX keyctl unlink X"
2226         # generate key with bogus filesystem name
2227         do_node ${clients_arr[0]} "lgss_sk -w $SK_PATH/$FSNAME-bogus.key \
2228                 -f $FSNAME.bogus -t client -d /dev/urandom" ||
2229                 error "lgss_sk failed (1)"
2230         do_facet $SINGLEMDS lfs flushctx || error "could not run flushctx"
2231         OLD_SK_PATH=$SK_PATH
2232         export SK_PATH=$SK_PATH/$FSNAME-bogus.key
2233         if zconf_mount_clients ${clients_arr[0]} $MOUNT; then
2234                 SK_PATH=$OLD_SK_PATH
2235                 do_node ${clients_arr[0]} "ls $DIR/$tdir/$tdir.out"
2236                 if [ $? -eq 0 ]; then
2237                         error "mount and read file with invalid key"
2238                 else
2239                         error "mount with invalid key"
2240                 fi
2241         fi
2242         zconf_umount_clients ${clients_arr[0]} $MOUNT ||
2243                 error "unable to umount clients"
2244         # unload keys from ring
2245         do_node ${clients_arr[0]} "keyctl show |
2246                 awk '/lustre/ { print \\\$1 }' | xargs -IX keyctl unlink X"
2247         rm -f $SK_PATH
2248         SK_PATH=$OLD_SK_PATH
2249         zconf_mount_clients ${clients_arr[0]} $MOUNT ||
2250                 error "unable to mount clients"
2251 }
2252 run_test 30 "check for invalid shared key"
2253
2254 basic_ios() {
2255         local flvr=$1
2256
2257         mkdir -p $DIR/$tdir || error "mkdir $flvr"
2258         touch $DIR/$tdir/f0 || error "touch $flvr"
2259         ls $DIR/$tdir || error "ls $flvr"
2260         dd if=/dev/zero of=$DIR/$tdir/f0 conv=fsync bs=1M count=10 \
2261                 >& /dev/null || error "dd $flvr"
2262         rm -f $DIR/$tdir/f0 || error "rm $flvr"
2263         rmdir $DIR/$tdir || error "rmdir $flvr"
2264
2265         sync ; sync
2266         echo 3 > /proc/sys/vm/drop_caches
2267 }
2268
2269 test_30b() {
2270         local save_flvr=$SK_FLAVOR
2271
2272         if ! $SHARED_KEY; then
2273                 skip "need shared key feature for this test"
2274         fi
2275
2276         stack_trap restore_to_default_flavor EXIT
2277
2278         for flvr in skn ska ski skpi; do
2279                 # set flavor
2280                 SK_FLAVOR=$flvr
2281                 restore_to_default_flavor || error "cannot set $flvr flavor"
2282                 SK_FLAVOR=$save_flvr
2283
2284                 basic_ios $flvr
2285         done
2286 }
2287 run_test 30b "basic test of all different SSK flavors"
2288
2289 cleanup_31() {
2290         # unmount client
2291         zconf_umount $HOSTNAME $MOUNT || error "unable to umount client"
2292
2293         # remove ${NETTYPE}999 network on all nodes
2294         do_nodes $(comma_list $(all_nodes)) \
2295                  "$LNETCTL net del --net ${NETTYPE}999 && \
2296                   $LNETCTL lnet unconfigure 2>/dev/null || true"
2297
2298         # necessary to do writeconf in order to de-register
2299         # @${NETTYPE}999 nid for targets
2300         KZPOOL=$KEEP_ZPOOL
2301         export KEEP_ZPOOL="true"
2302         stopall
2303         export SK_MOUNTED=false
2304         writeconf_all
2305         setupall || echo 1
2306         export KEEP_ZPOOL="$KZPOOL"
2307 }
2308
2309 test_31() {
2310         local nid=$(lctl list_nids | grep ${NETTYPE} | head -n1)
2311         local addr=${nid%@*}
2312         local net=${nid#*@}
2313
2314         export LNETCTL=$(which lnetctl 2> /dev/null)
2315
2316         [ -z "$LNETCTL" ] && skip "without lnetctl support." && return
2317         local_mode && skip "in local mode."
2318
2319         stack_trap cleanup_31 EXIT
2320
2321         # umount client
2322         if [ "$MOUNT_2" ] && $(grep -q $MOUNT2' ' /proc/mounts); then
2323                 umount_client $MOUNT2 || error "umount $MOUNT2 failed"
2324         fi
2325         if $(grep -q $MOUNT' ' /proc/mounts); then
2326                 umount_client $MOUNT || error "umount $MOUNT failed"
2327         fi
2328
2329         # check exports on servers are empty for client
2330         do_facet mgs "lctl get_param -n *.MGS*.exports.'$nid'.uuid 2>/dev/null |
2331                       grep -q -" && error "export on MGS should be empty"
2332         do_nodes $(comma_list $(mdts_nodes) $(osts_nodes)) \
2333                  "lctl get_param -n *.${FSNAME}*.exports.'$nid'.uuid \
2334                   2>/dev/null | grep -q -" &&
2335                 error "export on servers should be empty"
2336
2337         # add network ${NETTYPE}999 on all nodes
2338         do_nodes $(comma_list $(all_nodes)) \
2339                  "$LNETCTL lnet configure && $LNETCTL net add --if \
2340                   \$($LNETCTL net show --net $net | awk 'BEGIN{inf=0} \
2341                   {if (inf==1) print \$2; fi; inf=0} /interfaces/{inf=1}') \
2342                   --net ${NETTYPE}999" ||
2343                 error "unable to configure NID ${NETTYPE}999"
2344
2345         # necessary to do writeconf in order to register
2346         # new @${NETTYPE}999 nid for targets
2347         KZPOOL=$KEEP_ZPOOL
2348         export KEEP_ZPOOL="true"
2349         stopall
2350         export SK_MOUNTED=false
2351         writeconf_all
2352         setupall server_only || echo 1
2353         export KEEP_ZPOOL="$KZPOOL"
2354
2355         # backup MGSNID
2356         local mgsnid_orig=$MGSNID
2357         # compute new MGSNID
2358         MGSNID=$(do_facet mgs "$LCTL list_nids | grep ${NETTYPE}999")
2359
2360         # on client, turn LNet Dynamic Discovery on
2361         lnetctl set discovery 1
2362
2363         # mount client with -o network=${NETTYPE}999 option:
2364         # should fail because of LNet Dynamic Discovery
2365         mount_client $MOUNT ${MOUNT_OPTS},network=${NETTYPE}999 &&
2366                 error "client mount with '-o network' option should be refused"
2367
2368         # on client, reconfigure LNet and turn LNet Dynamic Discovery off
2369         $LNETCTL net del --net ${NETTYPE}999 && lnetctl lnet unconfigure
2370         lustre_rmmod
2371         modprobe lnet
2372         lnetctl set discovery 0
2373         modprobe ptlrpc
2374         $LNETCTL lnet configure && $LNETCTL net add --if \
2375           $($LNETCTL net show --net $net | awk 'BEGIN{inf=0} \
2376           {if (inf==1) print $2; fi; inf=0} /interfaces/{inf=1}') \
2377           --net ${NETTYPE}999 ||
2378         error "unable to configure NID ${NETTYPE}999 on client"
2379
2380         # mount client with -o network=${NETTYPE}999 option
2381         mount_client $MOUNT ${MOUNT_OPTS},network=${NETTYPE}999 ||
2382                 error "unable to remount client"
2383
2384         # restore MGSNID
2385         MGSNID=$mgsnid_orig
2386
2387         # check export on MGS
2388         do_facet mgs "lctl get_param -n *.MGS*.exports.'$nid'.uuid 2>/dev/null |
2389                       grep -q -"
2390         [ $? -ne 0 ] || error "export for $nid on MGS should not exist"
2391
2392         do_facet mgs \
2393                 "lctl get_param -n *.MGS*.exports.'${addr}@${NETTYPE}999'.uuid \
2394                  2>/dev/null | grep -q -"
2395         [ $? -eq 0 ] ||
2396                 error "export for ${addr}@${NETTYPE}999 on MGS should exist"
2397
2398         # check {mdc,osc} imports
2399         lctl get_param mdc.${FSNAME}-*.import | grep current_connection |
2400             grep -q ${NETTYPE}999
2401         [ $? -eq 0 ] ||
2402                 error "import for mdc should use ${addr}@${NETTYPE}999"
2403         lctl get_param osc.${FSNAME}-*.import | grep current_connection |
2404             grep -q ${NETTYPE}999
2405         [ $? -eq 0 ] ||
2406                 error "import for osc should use ${addr}@${NETTYPE}999"
2407 }
2408 run_test 31 "client mount option '-o network'"
2409
2410 cleanup_32() {
2411         # umount client
2412         zconf_umount_clients ${clients_arr[0]} $MOUNT
2413
2414         # disable sk flavor enforcement on MGS
2415         set_rule _mgs any any null
2416
2417         # stop gss daemon on MGS
2418         if ! combined_mgs_mds ; then
2419                 send_sigint $mgs_HOST lsvcgssd
2420         fi
2421
2422         # re-mount client
2423         MOUNT_OPTS=$(add_sk_mntflag $MOUNT_OPTS)
2424         mountcli
2425
2426         restore_to_default_flavor
2427 }
2428
2429 test_32() {
2430         if ! $SHARED_KEY; then
2431                 skip "need shared key feature for this test"
2432         fi
2433
2434         stack_trap cleanup_32 EXIT
2435
2436         # restore to default null flavor
2437         save_flvr=$SK_FLAVOR
2438         SK_FLAVOR=null
2439         restore_to_default_flavor || error "cannot set null flavor"
2440         SK_FLAVOR=$save_flvr
2441
2442         # umount client
2443         if [ "$MOUNT_2" ] && $(grep -q $MOUNT2' ' /proc/mounts); then
2444                 umount_client $MOUNT2 || error "umount $MOUNT2 failed"
2445         fi
2446         if $(grep -q $MOUNT' ' /proc/mounts); then
2447         umount_client $MOUNT || error "umount $MOUNT failed"
2448         fi
2449
2450         # start gss daemon on MGS
2451         if combined_mgs_mds ; then
2452                 send_sigint $mds_HOST lsvcgssd
2453         fi
2454         start_gss_daemons $mgs_HOST "$LSVCGSSD -vvv -s -g"
2455
2456         # add mgs key type and MGS NIDs in key on MGS
2457         do_nodes $mgs_HOST "lgss_sk -t mgs,server -g $MGSNID -m \
2458                                 $SK_PATH/$FSNAME.key >/dev/null 2>&1" ||
2459                 error "could not modify keyfile on MGS"
2460
2461         # load modified key file on MGS
2462         do_nodes $mgs_HOST "lgss_sk -l $SK_PATH/$FSNAME.key >/dev/null 2>&1" ||
2463                 error "could not load keyfile on MGS"
2464
2465         # add MGS NIDs in key on client
2466         do_nodes ${clients_arr[0]} "lgss_sk -g $MGSNID -m \
2467                                 $SK_PATH/$FSNAME.key >/dev/null 2>&1" ||
2468                 error "could not modify keyfile on MGS"
2469
2470         # set perms for per-nodemap keys else permission denied
2471         do_nodes $(comma_list $(all_nodes)) \
2472                  "keyctl show | grep lustre | cut -c1-11 |
2473                                 sed -e 's/ //g;' |
2474                                 xargs -IX keyctl setperm X 0x3f3f3f3f"
2475
2476         # re-mount client with mgssec=skn
2477         save_opts=$MOUNT_OPTS
2478         if [ -z "$MOUNT_OPTS" ]; then
2479                 MOUNT_OPTS="-o mgssec=skn"
2480         else
2481                 MOUNT_OPTS="$MOUNT_OPTS,mgssec=skn"
2482         fi
2483         zconf_mount_clients ${clients_arr[0]} $MOUNT $MOUNT_OPTS ||
2484                 error "mount ${clients_arr[0]} with mgssec=skn failed"
2485         MOUNT_OPTS=$save_opts
2486
2487         # umount client
2488         zconf_umount_clients ${clients_arr[0]} $MOUNT ||
2489                 error "umount ${clients_arr[0]} failed"
2490
2491         # enforce ska flavor on MGS
2492         set_rule _mgs any any ska
2493
2494         # re-mount client without mgssec
2495         zconf_mount_clients ${clients_arr[0]} $MOUNT $MOUNT_OPTS &&
2496                 error "mount ${clients_arr[0]} without mgssec should fail"
2497
2498         # re-mount client with mgssec=skn
2499         save_opts=$MOUNT_OPTS
2500         if [ -z "$MOUNT_OPTS" ]; then
2501                 MOUNT_OPTS="-o mgssec=skn"
2502         else
2503                 MOUNT_OPTS="$MOUNT_OPTS,mgssec=skn"
2504         fi
2505         zconf_mount_clients ${clients_arr[0]} $MOUNT $MOUNT_OPTS &&
2506                 error "mount ${clients_arr[0]} with mgssec=skn should fail"
2507         MOUNT_OPTS=$save_opts
2508
2509         # re-mount client with mgssec=ska
2510         save_opts=$MOUNT_OPTS
2511         if [ -z "$MOUNT_OPTS" ]; then
2512                 MOUNT_OPTS="-o mgssec=ska"
2513         else
2514                 MOUNT_OPTS="$MOUNT_OPTS,mgssec=ska"
2515         fi
2516         zconf_mount_clients ${clients_arr[0]} $MOUNT $MOUNT_OPTS ||
2517                 error "mount ${clients_arr[0]} with mgssec=ska failed"
2518         MOUNT_OPTS=$save_opts
2519
2520         exit 0
2521 }
2522 run_test 32 "check for mgssec"
2523
2524 cleanup_33() {
2525         # disable sk flavor enforcement
2526         set_rule $FSNAME any cli2mdt null
2527         wait_flavor cli2mdt null
2528
2529         # umount client
2530         zconf_umount_clients ${clients_arr[0]} $MOUNT
2531
2532         # stop gss daemon on MGS
2533         if ! combined_mgs_mds ; then
2534                 send_sigint $mgs_HOST lsvcgssd
2535         fi
2536
2537         # re-mount client
2538         MOUNT_OPTS=$(add_sk_mntflag $MOUNT_OPTS)
2539         mountcli
2540
2541         restore_to_default_flavor
2542 }
2543
2544 test_33() {
2545         if ! $SHARED_KEY; then
2546                 skip "need shared key feature for this test"
2547         fi
2548
2549         stack_trap cleanup_33 EXIT
2550
2551         # restore to default null flavor
2552         save_flvr=$SK_FLAVOR
2553         SK_FLAVOR=null
2554         restore_to_default_flavor || error "cannot set null flavor"
2555         SK_FLAVOR=$save_flvr
2556
2557         # umount client
2558         if [ "$MOUNT_2" ] && $(grep -q $MOUNT2' ' /proc/mounts); then
2559                 umount_client $MOUNT2 || error "umount $MOUNT2 failed"
2560         fi
2561         if $(grep -q $MOUNT' ' /proc/mounts); then
2562         umount_client $MOUNT || error "umount $MOUNT failed"
2563         fi
2564
2565         # start gss daemon on MGS
2566         if combined_mgs_mds ; then
2567                 send_sigint $mds_HOST lsvcgssd
2568         fi
2569         start_gss_daemons $mgs_HOST "$LSVCGSSD -vvv -s -g"
2570
2571         # add mgs key type and MGS NIDs in key on MGS
2572         do_nodes $mgs_HOST "lgss_sk -t mgs,server -g $MGSNID -m \
2573                                 $SK_PATH/$FSNAME.key >/dev/null 2>&1" ||
2574                 error "could not modify keyfile on MGS"
2575
2576         # load modified key file on MGS
2577         do_nodes $mgs_HOST "lgss_sk -l $SK_PATH/$FSNAME.key >/dev/null 2>&1" ||
2578                 error "could not load keyfile on MGS"
2579
2580         # add MGS NIDs in key on client
2581         do_nodes ${clients_arr[0]} "lgss_sk -g $MGSNID -m \
2582                                 $SK_PATH/$FSNAME.key >/dev/null 2>&1" ||
2583                 error "could not modify keyfile on MGS"
2584
2585         # set perms for per-nodemap keys else permission denied
2586         do_nodes $(comma_list $(all_nodes)) \
2587                  "keyctl show | grep lustre | cut -c1-11 |
2588                                 sed -e 's/ //g;' |
2589                                 xargs -IX keyctl setperm X 0x3f3f3f3f"
2590
2591         # re-mount client with mgssec=skn
2592         save_opts=$MOUNT_OPTS
2593         if [ -z "$MOUNT_OPTS" ]; then
2594                 MOUNT_OPTS="-o mgssec=skn"
2595         else
2596                 MOUNT_OPTS="$MOUNT_OPTS,mgssec=skn"
2597         fi
2598         zconf_mount_clients ${clients_arr[0]} $MOUNT $MOUNT_OPTS ||
2599                 error "mount ${clients_arr[0]} with mgssec=skn failed"
2600         MOUNT_OPTS=$save_opts
2601
2602         # enforce ska flavor for cli2mdt
2603         set_rule $FSNAME any cli2mdt ska
2604         wait_flavor cli2mdt ska
2605
2606         # check error message
2607         $LCTL dk | grep "faked source" &&
2608                 error "MGS connection srpc flags incorrect"
2609
2610         exit 0
2611 }
2612 run_test 33 "correct srpc flags for MGS connection"
2613
2614 cleanup_34_deny() {
2615         # restore deny_unknown
2616         do_facet mgs $LCTL nodemap_modify --name default \
2617                            --property deny_unknown --value $denydefault
2618         if [ $? -ne 0 ]; then
2619                 error_noexit "cannot reset deny_unknown on default nodemap"
2620                 return
2621         fi
2622
2623         wait_nm_sync default deny_unknown
2624 }
2625
2626 test_34() {
2627         local denynew
2628         local activedefault
2629
2630         [ $MGS_VERSION -lt $(version_code 2.12.51) ] &&
2631                 skip "deny_unknown on default nm not supported before 2.12.51"
2632
2633         activedefault=$(do_facet mgs $LCTL get_param -n nodemap.active)
2634
2635         if [[ "$activedefault" != "1" ]]; then
2636                 do_facet mgs $LCTL nodemap_activate 1
2637                 wait_nm_sync active
2638                 stack_trap cleanup_active EXIT
2639         fi
2640
2641         denydefault=$(do_facet mgs $LCTL get_param -n \
2642                       nodemap.default.deny_unknown)
2643         [ -z "$denydefault" ] &&
2644                 error "cannot get deny_unknown on default nodemap"
2645         if [ "$denydefault" -eq 0 ]; then
2646                 denynew=1;
2647         else
2648                 denynew=0;
2649         fi
2650
2651         do_facet mgs $LCTL nodemap_modify --name default \
2652                         --property deny_unknown --value $denynew ||
2653                 error "cannot set deny_unknown on default nodemap"
2654
2655         [ "$(do_facet mgs $LCTL get_param -n nodemap.default.deny_unknown)" \
2656                         -eq $denynew ] ||
2657                 error "setting deny_unknown on default nodemap did not work"
2658
2659         stack_trap cleanup_34_deny EXIT
2660
2661         wait_nm_sync default deny_unknown
2662 }
2663 run_test 34 "deny_unknown on default nodemap"
2664
2665 test_35() {
2666         [ $(lustre_version_code $SINGLEMDS) -ge $(version_code 2.13.50) ] ||
2667                 skip "Need MDS >= 2.13.50"
2668
2669         # activate changelogs
2670         changelog_register || error "changelog_register failed"
2671         local cl_user="${CL_USERS[$SINGLEMDS]%% *}"
2672         changelog_users $SINGLEMDS | grep -q $cl_user ||
2673                 error "User $cl_user not found in changelog_users"
2674         changelog_chmask ALL
2675
2676         # do some IOs
2677         mkdir $DIR/$tdir || error "failed to mkdir $tdir"
2678         touch $DIR/$tdir/$tfile || error "failed to touch $tfile"
2679
2680         # access changelogs with root
2681         changelog_dump || error "failed to dump changelogs"
2682         changelog_clear 0 || error "failed to clear changelogs"
2683
2684         # put clients in non-admin nodemap
2685         nodemap_test_setup
2686         stack_trap nodemap_test_cleanup EXIT
2687         for i in $(seq 0 $((num_clients-1))); do
2688                 do_facet mgs $LCTL nodemap_modify --name c${i} \
2689                          --property admin --value 0
2690         done
2691         for i in $(seq 0 $((num_clients-1))); do
2692                 wait_nm_sync c${i} admin_nodemap
2693         done
2694
2695         # access with mapped root
2696         changelog_dump && error "dump changelogs should have failed"
2697         changelog_clear 0 && error "clear changelogs should have failed"
2698
2699         exit 0
2700 }
2701 run_test 35 "Check permissions when accessing changelogs"
2702
2703 setup_dummy_key() {
2704         local mode='\x00\x00\x00\x00'
2705         local raw="$(printf ""\\\\x%02x"" {0..63})"
2706         local size
2707         local key
2708
2709         [[ $(lscpu) =~ Byte\ Order.*Little ]] && size='\x40\x00\x00\x00' ||
2710                 size='\x00\x00\x00\x40'
2711         key="${mode}${raw}${size}"
2712         echo -n -e "${key}" | keyctl padd logon fscrypt:4242424242424242 @s
2713 }
2714
2715 setup_for_enc_tests() {
2716         # remount client with test_dummy_encryption option
2717         if is_mounted $MOUNT; then
2718                 umount_client $MOUNT || error "umount $MOUNT failed"
2719         fi
2720         mount_client $MOUNT ${MOUNT_OPTS},test_dummy_encryption ||
2721                 error "mount with '-o test_dummy_encryption' failed"
2722
2723         # this directory will be encrypted, because of dummy mode
2724         mkdir $DIR/$tdir
2725 }
2726
2727 cleanup_for_enc_tests() {
2728         local dummy_key
2729
2730         rm -rf $DIR/$tdir $*
2731
2732         # remount client normally
2733         if is_mounted $MOUNT; then
2734                 umount_client $MOUNT || error "umount $MOUNT failed"
2735         fi
2736         mount_client $MOUNT ${MOUNT_OPTS} ||
2737                 error "remount failed"
2738
2739         if is_mounted $MOUNT2; then
2740                 umount_client $MOUNT2 || error "umount $MOUNT2 failed"
2741         fi
2742         if [ "$MOUNT_2" ]; then
2743                 mount_client $MOUNT2 ${MOUNT_OPTS} ||
2744                         error "remount failed"
2745         fi
2746
2747         # remove fscrypt key from keyring
2748         dummy_key=$(keyctl show | awk '$7 ~ "^fscrypt:" {print $1}')
2749         if [ -n "$dummy_key" ]; then
2750                 keyctl revoke $dummy_key
2751                 keyctl reap
2752         fi
2753 }
2754
2755 cleanup_nodemap_after_enc_tests() {
2756         do_facet mgs $LCTL nodemap_modify --name default \
2757                 --property forbid_encryption --value 0
2758         wait_nm_sync default forbid_encryption
2759         do_facet mgs $LCTL nodemap_activate 0
2760         wait_nm_sync active
2761 }
2762
2763 test_36() {
2764         $LCTL get_param mdc.*.import | grep -q client_encryption ||
2765                 skip "client encryption not supported"
2766
2767         mount.lustre --help |& grep -q "test_dummy_encryption:" ||
2768                 skip "need dummy encryption support"
2769
2770         stack_trap cleanup_for_enc_tests EXIT
2771
2772         # first make sure it is possible to enable encryption
2773         # when nodemap is not active
2774         setup_for_enc_tests
2775         rmdir $DIR/$tdir
2776         umount_client $MOUNT || error "umount $MOUNT failed (1)"
2777
2778         # then activate nodemap, and retry
2779         # should succeed as encryption is not forbidden on default nodemap
2780         # by default
2781         stack_trap cleanup_nodemap_after_enc_tests EXIT
2782         do_facet mgs $LCTL nodemap_activate 1
2783         wait_nm_sync active
2784         forbid=$(do_facet mgs lctl get_param -n nodemap.default.forbid_encryption)
2785         [ $forbid -eq 0 ] || error "wrong default value for forbid_encryption"
2786         mount_client $MOUNT ${MOUNT_OPTS},test_dummy_encryption ||
2787                 error "mount '-o test_dummy_encryption' failed with default"
2788         umount_client $MOUNT || error "umount $MOUNT failed (2)"
2789
2790         # then forbid encryption, and retry
2791         do_facet mgs $LCTL nodemap_modify --name default \
2792                 --property forbid_encryption --value 1
2793         wait_nm_sync default forbid_encryption
2794         mount_client $MOUNT ${MOUNT_OPTS},test_dummy_encryption &&
2795                 error "mount '-o test_dummy_encryption' should have failed"
2796         return 0
2797 }
2798 run_test 36 "control if clients can use encryption"
2799
2800 test_37() {
2801         local testfile=$DIR/$tdir/$tfile
2802         local tmpfile=$TMP/abc
2803         local objdump=$TMP/objdump
2804         local objid
2805
2806         $LCTL get_param mdc.*.import | grep -q client_encryption ||
2807                 skip "client encryption not supported"
2808
2809         mount.lustre --help |& grep -q "test_dummy_encryption:" ||
2810                 skip "need dummy encryption support"
2811
2812         [ "$ost1_FSTYPE" = ldiskfs ] || skip "ldiskfs only test (using debugfs)"
2813
2814         stack_trap cleanup_for_enc_tests EXIT
2815         setup_for_enc_tests
2816
2817         # write a few bytes in file
2818         echo "abc" > $tmpfile
2819         $LFS setstripe -c1 -i0 $testfile
2820         dd if=$tmpfile of=$testfile bs=4 count=1 conv=fsync
2821         do_facet ost1 "sync; sync"
2822
2823         # check that content on ost is encrypted
2824         objid=$($LFS getstripe $testfile | awk '/obdidx/{getline; print $2}')
2825         do_facet ost1 "$DEBUGFS -c -R 'cat O/0/d$(($objid % 32))/$objid' \
2826                  $(ostdevname 1)" > $objdump
2827         cmp -s $objdump $tmpfile &&
2828                 error "file $testfile is not encrypted on ost"
2829
2830         # check that in-memory representation of file is correct
2831         cmp -bl ${tmpfile} ${testfile} ||
2832                 error "file $testfile is corrupted in memory"
2833
2834         cancel_lru_locks osc ; cancel_lru_locks mdc
2835
2836         # check that file read from server is correct
2837         cmp -bl ${tmpfile} ${testfile} ||
2838                 error "file $testfile is corrupted on server"
2839
2840         rm -f $tmpfile $objdump
2841 }
2842 run_test 37 "simple encrypted file"
2843
2844 test_38() {
2845         local testfile=$DIR/$tdir/$tfile
2846         local tmpfile=$TMP/abc
2847         local objid
2848         local blksz
2849         local srvsz=0
2850         local filesz
2851         local bsize
2852         local pagesz=$(getconf PAGE_SIZE)
2853
2854         $LCTL get_param mdc.*.import | grep -q client_encryption ||
2855                 skip "client encryption not supported"
2856
2857         mount.lustre --help |& grep -q "test_dummy_encryption:" ||
2858                 skip "need dummy encryption support"
2859
2860         stack_trap cleanup_for_enc_tests EXIT
2861         setup_for_enc_tests
2862
2863         # get block size on ost
2864         blksz=$($LCTL get_param osc.$FSNAME*.import |
2865                 awk '/grant_block_size:/ { print $2; exit; }')
2866         # write a few bytes in file at offset $blksz
2867         echo "abc" > $tmpfile
2868         $LFS setstripe -c1 -i0 $testfile
2869         dd if=$tmpfile of=$testfile bs=4 count=1 seek=$blksz \
2870                 oflag=seek_bytes conv=fsync
2871
2872         blksz=$(($blksz > $pagesz ? $blksz : $pagesz))
2873         # check that in-memory representation of file is correct
2874         bsize=$(stat --format=%B $testfile)
2875         filesz=$(stat --format=%b $testfile)
2876         filesz=$((filesz*bsize))
2877         [ $filesz -le $blksz ] ||
2878                 error "file $testfile is $filesz long in memory"
2879
2880         cancel_lru_locks osc ; cancel_lru_locks mdc
2881
2882         # check that file read from server is correct
2883         bsize=$(stat --format=%B $testfile)
2884         filesz=$(stat --format=%b $testfile)
2885         filesz=$((filesz*bsize))
2886         [ $filesz -le $blksz ] ||
2887                 error "file $testfile is $filesz long on server"
2888
2889         rm -f $tmpfile
2890 }
2891 run_test 38 "encrypted file with hole"
2892
2893 test_39() {
2894         local testfile=$DIR/$tdir/$tfile
2895         local tmpfile=$TMP/abc
2896
2897         $LCTL get_param mdc.*.import | grep -q client_encryption ||
2898                 skip "client encryption not supported"
2899
2900         mount.lustre --help |& grep -q "test_dummy_encryption:" ||
2901                 skip "need dummy encryption support"
2902
2903         stack_trap cleanup_for_enc_tests EXIT
2904         setup_for_enc_tests
2905
2906         # write a few bytes in file
2907         echo "abc" > $tmpfile
2908         $LFS setstripe -c1 -i0 $testfile
2909         dd if=$tmpfile of=$testfile bs=4 count=1 conv=fsync
2910
2911         # write a few more bytes in the same page
2912         dd if=$tmpfile of=$testfile bs=4 count=1 seek=1024 oflag=seek_bytes \
2913                 conv=fsync,notrunc
2914
2915         dd if=$tmpfile of=$tmpfile bs=4 count=1 seek=1024 oflag=seek_bytes \
2916                 conv=fsync,notrunc
2917
2918         # check that in-memory representation of file is correct
2919         cmp -bl $tmpfile $testfile ||
2920                 error "file $testfile is corrupted in memory"
2921
2922         cancel_lru_locks osc ; cancel_lru_locks mdc
2923
2924         # check that file read from server is correct
2925         cmp -bl $tmpfile $testfile ||
2926                 error "file $testfile is corrupted on server"
2927
2928         rm -f $tmpfile
2929 }
2930 run_test 39 "rewrite data in already encrypted page"
2931
2932 test_40() {
2933         local testfile=$DIR/$tdir/$tfile
2934         local tmpfile=$TMP/abc
2935         local tmpfile2=$TMP/abc2
2936         local seek
2937         local filesz
2938         #define LUSTRE_ENCRYPTION_UNIT_SIZE   (1 << 12)
2939         local UNIT_SIZE=$((1 << 12))
2940         local scrambledfile
2941
2942         $LCTL get_param mdc.*.import | grep -q client_encryption ||
2943                 skip "client encryption not supported"
2944
2945         mount.lustre --help |& grep -q "test_dummy_encryption:" ||
2946                 skip "need dummy encryption support"
2947
2948         [[ $OSTCOUNT -lt 2 ]] && skip_env "needs >= 2 OSTs"
2949
2950         stack_trap cleanup_for_enc_tests EXIT
2951         setup_for_enc_tests
2952
2953         # write a few bytes in file
2954         echo "abc" > $tmpfile
2955         $LFS setstripe -c1 -i0 $testfile
2956         dd if=$tmpfile of=$testfile bs=4 count=1 conv=fsync
2957
2958         # check that in-memory representation of file is correct
2959         cmp -bl $tmpfile $testfile ||
2960                 error "file $testfile is corrupted in memory (1)"
2961
2962         cancel_lru_locks osc ; cancel_lru_locks mdc
2963
2964         # check that file read from server is correct
2965         cmp -bl $tmpfile $testfile ||
2966                 error "file $testfile is corrupted on server (1)"
2967
2968         # write a few other bytes in same page
2969         dd if=$tmpfile of=$testfile bs=4 count=1 seek=256 oflag=seek_bytes \
2970                 conv=fsync,notrunc
2971
2972         dd if=$tmpfile of=$tmpfile bs=4 count=1 seek=256 oflag=seek_bytes \
2973                 conv=fsync,notrunc
2974
2975         # check that in-memory representation of file is correct
2976         cmp -bl $tmpfile $testfile ||
2977                 error "file $testfile is corrupted in memory (2)"
2978
2979         cancel_lru_locks osc ; cancel_lru_locks mdc
2980
2981         # check that file read from server is correct
2982         cmp -bl $tmpfile $testfile ||
2983                 error "file $testfile is corrupted on server (2)"
2984
2985         rm -f $testfile $tmpfile
2986         cancel_lru_locks osc ; cancel_lru_locks mdc
2987
2988         # write a few bytes in file, at end of first page
2989         echo "abc" > $tmpfile
2990         $LFS setstripe -c1 -i0 $testfile
2991         seek=$(getconf PAGESIZE)
2992         seek=$((seek - 4))
2993         dd if=$tmpfile of=$testfile bs=4 count=1 seek=$seek oflag=seek_bytes \
2994                 conv=fsync,notrunc
2995
2996         # write a few other bytes at beginning of first page
2997         dd if=$tmpfile of=$testfile bs=4 count=1 conv=fsync,notrunc
2998
2999         dd if=$tmpfile of=$tmpfile bs=4 count=1 seek=$seek oflag=seek_bytes \
3000                 conv=fsync,notrunc
3001
3002         # check that in-memory representation of file is correct
3003         cmp -bl $tmpfile $testfile ||
3004                 error "file $testfile is corrupted in memory (3)"
3005
3006         cancel_lru_locks osc ; cancel_lru_locks mdc
3007
3008         # check that file read from server is correct
3009         cmp -bl $tmpfile $testfile ||
3010                 error "file $testfile is corrupted on server (3)"
3011
3012         rm -f $testfile $tmpfile
3013         cancel_lru_locks osc ; cancel_lru_locks mdc
3014
3015         # write a few bytes in file, at beginning of second page
3016         echo "abc" > $tmpfile
3017         $LFS setstripe -c1 -i0 $testfile
3018         seek=$(getconf PAGESIZE)
3019         dd if=$tmpfile of=$testfile bs=4 count=1 seek=$seek oflag=seek_bytes \
3020                 conv=fsync,notrunc
3021         dd if=$tmpfile of=$tmpfile2 bs=4 count=1 seek=$seek oflag=seek_bytes \
3022                 conv=fsync,notrunc
3023
3024         # write a few other bytes at end of first page
3025         seek=$((seek - 4))
3026         dd if=$tmpfile of=$testfile bs=4 count=1 seek=$seek oflag=seek_bytes \
3027                 conv=fsync,notrunc
3028         dd if=$tmpfile of=$tmpfile2 bs=4 count=1 seek=$seek oflag=seek_bytes \
3029                 conv=fsync,notrunc
3030
3031         # check that in-memory representation of file is correct
3032         cmp -bl $tmpfile2 $testfile ||
3033                 error "file $testfile is corrupted in memory (4)"
3034
3035         cancel_lru_locks osc ; cancel_lru_locks mdc
3036
3037         # check that file read from server is correct
3038         cmp -bl $tmpfile2 $testfile ||
3039                 error "file $testfile is corrupted on server (4)"
3040
3041         rm -f $testfile $tmpfile $tmpfile2
3042         cancel_lru_locks osc ; cancel_lru_locks mdc
3043
3044         # write a few bytes in file, at beginning of first stripe
3045         echo "abc" > $tmpfile
3046         $LFS setstripe -S 256k -c2 $testfile
3047         dd if=$tmpfile of=$testfile bs=4 count=1 conv=fsync,notrunc
3048
3049         # write a few other bytes, at beginning of second stripe
3050         dd if=$tmpfile of=$testfile bs=4 count=1 seek=262144 oflag=seek_bytes \
3051                 conv=fsync,notrunc
3052         dd if=$tmpfile of=$tmpfile bs=4 count=1 seek=262144 oflag=seek_bytes \
3053                 conv=fsync,notrunc
3054
3055         # check that in-memory representation of file is correct
3056         cmp -bl $tmpfile $testfile ||
3057                 error "file $testfile is corrupted in memory (5)"
3058
3059         cancel_lru_locks osc ; cancel_lru_locks mdc
3060
3061         # check that file read from server is correct
3062         cmp -bl $tmpfile $testfile ||
3063                 error "file $testfile is corrupted on server (5)"
3064
3065         filesz=$(stat --format=%s $testfile)
3066         filesz=$(((filesz+UNIT_SIZE-1)/UNIT_SIZE * UNIT_SIZE))
3067
3068         sync ; echo 3 > /proc/sys/vm/drop_caches
3069
3070         # remove fscrypt key from keyring
3071         keyctl revoke $(keyctl show | awk '$7 ~ "^fscrypt:" {print $1}')
3072         keyctl reap
3073
3074         scrambledfile=$(find $DIR/$tdir/ -maxdepth 1 -mindepth 1 -type f)
3075         [ $(stat --format=%s $scrambledfile) -eq $filesz ] ||
3076                 error "file size without key should be rounded up"
3077
3078         rm -f $tmpfile
3079 }
3080 run_test 40 "exercise size of encrypted file"
3081
3082 test_41() {
3083         local testfile=$DIR/$tdir/$tfile
3084         local tmpfile=$TMP/abc
3085         local tmpfile2=$TMP/abc2
3086         local seek
3087
3088         $LCTL get_param mdc.*.import | grep -q client_encryption ||
3089                 skip "client encryption not supported"
3090
3091         mount.lustre --help |& grep -q "test_dummy_encryption:" ||
3092                 skip "need dummy encryption support"
3093
3094         stack_trap cleanup_for_enc_tests EXIT
3095         setup_for_enc_tests
3096
3097         echo "abc" > $tmpfile
3098         seek=$(getconf PAGESIZE)
3099         seek=$((seek - 204))
3100         dd if=$tmpfile of=$tmpfile2 bs=4 count=1 seek=$seek oflag=seek_bytes \
3101                 conv=fsync
3102         seek=$(getconf PAGESIZE)
3103         seek=$((seek + 1092))
3104         dd if=$tmpfile of=$tmpfile2 bs=4 count=1 seek=$seek oflag=seek_bytes \
3105                 conv=fsync,notrunc
3106
3107         # write a few bytes in file
3108         $LFS setstripe -c1 -i0 -S 256k $testfile
3109         seek=$(getconf PAGESIZE)
3110         seek=$((seek - 204))
3111         #define OBD_FAIL_OST_WR_ATTR_DELAY       0x250
3112         do_facet ost1 "$LCTL set_param fail_loc=0x250 fail_val=15"
3113         dd if=$tmpfile of=$testfile bs=4 count=1 seek=$seek oflag=seek_bytes \
3114                 conv=fsync &
3115
3116         sleep 5
3117         # write a few other bytes, at a different offset
3118         seek=$(getconf PAGESIZE)
3119         seek=$((seek + 1092))
3120         dd if=$tmpfile of=$testfile bs=4 count=1 seek=$seek oflag=seek_bytes \
3121                 conv=fsync,notrunc &
3122         wait
3123         do_facet ost1 "$LCTL set_param fail_loc=0x0"
3124
3125         # check that in-memory representation of file is correct
3126         cmp -bl $tmpfile2 $testfile ||
3127                 error "file $testfile is corrupted in memory (1)"
3128
3129         cancel_lru_locks osc ; cancel_lru_locks mdc
3130
3131         # check that file read from server is correct
3132         cmp -bl $tmpfile2 $testfile ||
3133                 error "file $testfile is corrupted on server (1)"
3134
3135         rm -f $tmpfile $tmpfile2
3136 }
3137 run_test 41 "test race on encrypted file size (1)"
3138
3139 test_42() {
3140         local testfile=$DIR/$tdir/$tfile
3141         local testfile2=$DIR2/$tdir/$tfile
3142         local tmpfile=$TMP/abc
3143         local tmpfile2=$TMP/abc2
3144         local pagesz=$(getconf PAGESIZE)
3145         local seek
3146
3147         $LCTL get_param mdc.*.import | grep -q client_encryption ||
3148                 skip "client encryption not supported"
3149
3150         mount.lustre --help |& grep -q "test_dummy_encryption:" ||
3151                 skip "need dummy encryption support"
3152
3153         stack_trap cleanup_for_enc_tests EXIT
3154         setup_for_enc_tests
3155
3156         if is_mounted $MOUNT2; then
3157                 umount_client $MOUNT2 || error "umount $MOUNT2 failed"
3158         fi
3159         mount_client $MOUNT2 ${MOUNT_OPTS},test_dummy_encryption ||
3160                 error "mount2 with '-o test_dummy_encryption' failed"
3161
3162         # create file by writting one whole page
3163         $LFS setstripe -c1 -i0 -S 256k $testfile
3164         dd if=/dev/zero of=$testfile bs=$pagesz count=1 conv=fsync
3165
3166         # read file from 2nd mount point
3167         cat $testfile2 > /dev/null
3168
3169         echo "abc" > $tmpfile
3170         dd if=/dev/zero of=$tmpfile2 bs=$pagesz count=1 conv=fsync
3171         seek=$((2*pagesz - 204))
3172         dd if=$tmpfile of=$tmpfile2 bs=4 count=1 seek=$seek oflag=seek_bytes \
3173                 conv=fsync,notrunc
3174         seek=$((2*pagesz + 1092))
3175         dd if=$tmpfile of=$tmpfile2 bs=4 count=1 seek=$seek oflag=seek_bytes \
3176                 conv=fsync,notrunc
3177
3178         # write a few bytes in file from 1st mount point
3179         seek=$((2*pagesz - 204))
3180         #define OBD_FAIL_OST_WR_ATTR_DELAY       0x250
3181         do_facet ost1 "$LCTL set_param fail_loc=0x250 fail_val=15"
3182         dd if=$tmpfile of=$testfile bs=4 count=1 seek=$seek oflag=seek_bytes \
3183                 conv=fsync,notrunc &
3184
3185         sleep 5
3186         # write a few other bytes, at a different offset from 2nd mount point
3187         seek=$((2*pagesz + 1092))
3188         dd if=$tmpfile of=$testfile2 bs=4 count=1 seek=$seek oflag=seek_bytes \
3189                 conv=fsync,notrunc &
3190         wait
3191         do_facet ost1 "$LCTL set_param fail_loc=0x0"
3192
3193         # check that in-memory representation of file is correct
3194         cmp -bl $tmpfile2 $testfile ||
3195                 error "file $testfile is corrupted in memory (1)"
3196
3197         # check that in-memory representation of file is correct
3198         cmp -bl $tmpfile2 $testfile2 ||
3199                 error "file $testfile is corrupted in memory (2)"
3200
3201         cancel_lru_locks osc ; cancel_lru_locks mdc
3202
3203         # check that file read from server is correct
3204         cmp -bl $tmpfile2 $testfile ||
3205                 error "file $testfile is corrupted on server (1)"
3206
3207         rm -f $tmpfile $tmpfile2
3208 }
3209 run_test 42 "test race on encrypted file size (2)"
3210
3211 test_43() {
3212         local testfile=$DIR/$tdir/$tfile
3213         local testfile2=$DIR2/$tdir/$tfile
3214         local tmpfile=$TMP/abc
3215         local tmpfile2=$TMP/abc2
3216         local resfile=$TMP/res
3217         local pagesz=$(getconf PAGESIZE)
3218         local seek
3219
3220         $LCTL get_param mdc.*.import | grep -q client_encryption ||
3221                 skip "client encryption not supported"
3222
3223         mount.lustre --help |& grep -q "test_dummy_encryption:" ||
3224                 skip "need dummy encryption support"
3225
3226         stack_trap cleanup_for_enc_tests EXIT
3227         setup_for_enc_tests
3228
3229         if is_mounted $MOUNT2; then
3230                 umount_client $MOUNT2 || error "umount $MOUNT2 failed"
3231         fi
3232         mount_client $MOUNT2 ${MOUNT_OPTS},test_dummy_encryption ||
3233                 error "mount2 with '-o test_dummy_encryption' failed"
3234
3235         # create file
3236         tr '\0' '1' < /dev/zero |
3237                 dd of=$tmpfile bs=1 count=$pagesz conv=fsync
3238         $LFS setstripe -c1 -i0 -S 256k $testfile
3239         cp $tmpfile $testfile
3240
3241         # read file from 2nd mount point
3242         cat $testfile2 > /dev/null
3243
3244         # write a few bytes in file from 1st mount point
3245         echo "abc" > $tmpfile2
3246         seek=$((2*pagesz - 204))
3247         #define OBD_FAIL_OST_WR_ATTR_DELAY       0x250
3248         do_facet ost1 "$LCTL set_param fail_loc=0x250 fail_val=15"
3249         dd if=$tmpfile2 of=$testfile bs=4 count=1 seek=$seek oflag=seek_bytes \
3250                 conv=fsync,notrunc &
3251
3252         sleep 5
3253         # read file from 2nd mount point
3254         dd if=$testfile2 of=$resfile bs=$pagesz count=1 conv=fsync,notrunc
3255         cmp -bl $tmpfile $resfile ||
3256                 error "file $testfile is corrupted in memory (1)"
3257
3258         wait
3259         do_facet ost1 "$LCTL set_param fail_loc=0x0"
3260
3261         # check that in-memory representation of file is correct
3262         dd if=$tmpfile2 of=$tmpfile bs=4 count=1 seek=$seek oflag=seek_bytes \
3263                 conv=fsync,notrunc
3264         cmp -bl $tmpfile $testfile2 ||
3265                 error "file $testfile is corrupted in memory (2)"
3266
3267         cancel_lru_locks osc ; cancel_lru_locks mdc
3268
3269         # check that file read from server is correct
3270         cmp -bl $tmpfile $testfile ||
3271                 error "file $testfile is corrupted on server (1)"
3272
3273         rm -f $tmpfile $tmpfile2
3274 }
3275 run_test 43 "test race on encrypted file size (3)"
3276
3277 test_44() {
3278         local testfile=$DIR/$tdir/$tfile
3279         local tmpfile=$TMP/abc
3280         local resfile=$TMP/resfile