Fix test script error codes
[zfs.git] / scripts / common.sh.in
1 #!/bin/bash
2 #
3 # Common support functions for testing scripts.  If a script-config
4 # files is available it will be sourced so in-tree kernel modules and
5 # utilities will be used.  If no script-config can be found then the
6 # installed kernel modules and utilities will be used.
7
8 basedir="$(dirname $0)"
9
10 SCRIPT_CONFIG=zfs-script-config.sh
11 if [ -f "${basedir}/../${SCRIPT_CONFIG}" ]; then
12 . "${basedir}/../${SCRIPT_CONFIG}"
13 else
14 KERNEL_MODULES=(zlib_deflate zlib_inflate)
15 MODULES=(spl splat zavl znvpair zunicode zcommon zfs)
16 fi
17
18 PROG="<define PROG>"
19 CLEANUP=
20 VERBOSE=
21 VERBOSE_FLAG=
22 FORCE=
23 FORCE_FLAG=
24 DUMP_LOG=
25 ERROR=
26 RAID0S=()
27 RAID10S=()
28 RAIDZS=()
29 RAIDZ2S=()
30 TESTS_RUN=${TESTS_RUN:-'*'}
31 TESTS_SKIP=${TESTS_SKIP:-}
32
33 prefix=@prefix@
34 exec_prefix=@exec_prefix@
35 libexecdir=@libexecdir@
36 pkglibexecdir=${libexecdir}/@PACKAGE@
37 bindir=@bindir@
38 sbindir=@sbindir@
39 udevdir=@udevdir@
40 udevruledir=@udevruledir@
41 sysconfdir=@sysconfdir@
42
43 ETCDIR=${ETCDIR:-/etc}
44 DEVDIR=${DEVDIR:-/dev/disk/zpool}
45 ZPOOLDIR=${ZPOOLDIR:-${pkglibexecdir}/zpool-config}
46 ZPIOSDIR=${ZPIOSDIR:-${pkglibexecdir}/zpios-test}
47 ZPIOSPROFILEDIR=${ZPIOSPROFILEDIR:-${pkglibexecdir}/zpios-profile}
48
49 ZDB=${ZDB:-${sbindir}/zdb}
50 ZFS=${ZFS:-${sbindir}/zfs}
51 ZINJECT=${ZINJECT:-${sbindir}/zinject}
52 ZPOOL=${ZPOOL:-${sbindir}/zpool}
53 ZPOOL_ID=${ZPOOL_ID:-${bindir}/zpool_id}
54 ZTEST=${ZTEST:-${sbindir}/ztest}
55 ZPIOS=${ZPIOS:-${sbindir}/zpios}
56
57 COMMON_SH=${COMMON_SH:-${pkglibexecdir}/common.sh}
58 ZFS_SH=${ZFS_SH:-${pkglibexecdir}/zfs.sh}
59 ZPOOL_CREATE_SH=${ZPOOL_CREATE_SH:-${pkglibexecdir}/zpool-create.sh}
60 ZPIOS_SH=${ZPIOS_SH:-${pkglibexecdir}/zpios.sh}
61 ZPIOS_SURVEY_SH=${ZPIOS_SURVEY_SH:-${pkglibexecdir}/zpios-survey.sh}
62
63 LDMOD=${LDMOD:-/sbin/modprobe}
64 LSMOD=${LSMOD:-/sbin/lsmod}
65 RMMOD=${RMMOD:-/sbin/rmmod}
66 INFOMOD=${INFOMOD:-/sbin/modinfo}
67 LOSETUP=${LOSETUP:-/sbin/losetup}
68 MDADM=${MDADM:-/sbin/mdadm}
69 PARTED=${PARTED:-/sbin/parted}
70 BLOCKDEV=${BLOCKDEV:-/sbin/blockdev}
71 LSSCSI=${LSSCSI:-/usr/bin/lsscsi}
72 SCSIRESCAN=${SCSIRESCAN:-/usr/bin/scsi-rescan}
73 SYSCTL=${SYSCTL:-/sbin/sysctl}
74 UDEVADM=${UDEVADM:-/sbin/udevadm}
75 AWK=${AWK:-/usr/bin/awk}
76
77 COLOR_BLACK="\033[0;30m"
78 COLOR_DK_GRAY="\033[1;30m"
79 COLOR_BLUE="\033[0;34m"
80 COLOR_LT_BLUE="\033[1;34m" 
81 COLOR_GREEN="\033[0;32m"
82 COLOR_LT_GREEN="\033[1;32m"
83 COLOR_CYAN="\033[0;36m"
84 COLOR_LT_CYAN="\033[1;36m"
85 COLOR_RED="\033[0;31m"
86 COLOR_LT_RED="\033[1;31m"
87 COLOR_PURPLE="\033[0;35m"
88 COLOR_LT_PURPLE="\033[1;35m"
89 COLOR_BROWN="\033[0;33m"
90 COLOR_YELLOW="\033[1;33m"
91 COLOR_LT_GRAY="\033[0;37m"
92 COLOR_WHITE="\033[1;37m"
93 COLOR_RESET="\033[0m"
94
95 die() {
96         echo -e "${PROG}: $1" >&2
97         exit 1
98 }
99
100 msg() {
101         if [ ${VERBOSE} ]; then
102                 echo "$@"
103         fi
104 }
105
106 pass() {
107         echo -e "${COLOR_GREEN}Pass${COLOR_RESET}"
108 }
109
110 fail() {
111         echo -e "${COLOR_RED}Fail${COLOR_RESET} ($1)"
112         exit $1
113 }
114
115 skip() {
116         echo -e "${COLOR_BROWN}Skip${COLOR_RESET}"
117 }
118
119 init() {
120         # Disable the udev rule 90-zfs.rules to prevent the zfs module
121         # stack from being loaded due to the detection of a zfs device.
122         # This is important because the test scripts require full control
123         # over when and how the modules are loaded/unloaded.  A trap is
124         # set to ensure the udev rule is correctly replaced on exit.
125         local RULE=${udevruledir}/90-zfs.rules
126         if test -e  ${RULE}; then
127                 trap "mv ${RULE}.disabled ${RULE}" INT TERM EXIT
128                 mv ${RULE} ${RULE}.disabled
129         fi
130 }
131
132 spl_dump_log() {
133         ${SYSCTL} -w kernel.spl.debug.dump=1 &>/dev/null
134         local NAME=`dmesg | tail -n 1 | cut -f5 -d' '`
135         ${SPLBUILD}/cmd/spl ${NAME} >${NAME}.log
136         echo
137         echo "Dumped debug log: ${NAME}.log"
138         tail -n1 ${NAME}.log
139         echo
140         return 0
141 }
142
143 check_modules() {
144         local LOADED_MODULES=()
145         local MISSING_MODULES=()
146
147         for MOD in ${MODULES[*]}; do
148                 local NAME=`basename $MOD .ko`
149
150                 if ${LSMOD} | egrep -q "^${NAME}"; then
151                         LOADED_MODULES=(${NAME} ${LOADED_MODULES[*]})
152                 fi
153
154                 if [ ${INFOMOD} ${MOD} 2>/dev/null ]; then
155                         MISSING_MODULES=("\t${MOD}\n" ${MISSING_MODULES[*]})
156                 fi
157         done
158
159         if [ ${#LOADED_MODULES[*]} -gt 0 ]; then
160                 ERROR="Unload these modules with '${PROG} -u':\n"
161                 ERROR="${ERROR}${LOADED_MODULES[*]}"
162                 return 1
163         fi
164
165         if [ ${#MISSING_MODULES[*]} -gt 0 ]; then
166                 ERROR="The following modules can not be found,"
167                 ERROR="${ERROR} ensure your source trees are built:\n"
168                 ERROR="${ERROR}${MISSING_MODULES[*]}"
169                 return 1
170         fi
171
172         return 0
173 }
174
175 load_module() {
176         local NAME=`basename $1 .ko`
177
178         if [ ${VERBOSE} ]; then
179                 echo "Loading ${NAME} ($@)"
180         fi
181
182         ${LDMOD} $* &>/dev/null || ERROR="Failed to load $1" return 1
183
184         return 0
185 }
186
187 load_modules() {
188         mkdir -p /etc/zfs
189
190         for MOD in ${KERNEL_MODULES[*]}; do
191                 load_module ${MOD}
192         done
193
194         for MOD in ${MODULES[*]}; do
195                 local NAME=`basename ${MOD} .ko`
196                 local VALUE=
197
198                 for OPT in "$@"; do
199                         OPT_NAME=`echo ${OPT} | cut -f1 -d'='`
200
201                         if [ ${NAME} = "${OPT_NAME}" ]; then
202                                 VALUE=`echo ${OPT} | cut -f2- -d'='`
203                         fi
204                 done
205
206                 load_module ${MOD} ${VALUE} || return 1
207         done
208
209         if [ ${VERBOSE} ]; then
210                 echo "Successfully loaded ZFS module stack"
211         fi
212
213         return 0
214 }
215
216 unload_module() {
217         local NAME=`basename $1 .ko`
218
219         if [ ${VERBOSE} ]; then
220                 echo "Unloading ${NAME} ($@)"
221         fi
222
223         ${RMMOD} ${NAME} || ERROR="Failed to unload ${NAME}" return 1
224
225         return 0
226 }
227
228 unload_modules() {
229         local MODULES_REVERSE=( $(echo ${MODULES[@]} |
230                 ${AWK} '{for (i=NF;i>=1;i--) printf $i" "} END{print ""}') )
231
232         for MOD in ${MODULES_REVERSE[*]}; do
233                 local NAME=`basename ${MOD} .ko`
234                 local USE_COUNT=`${LSMOD} |
235                                 egrep "^${NAME} "| ${AWK} '{print $3}'`
236
237                 if [ "${USE_COUNT}" = 0 ] ; then
238
239                         if [ "${DUMP_LOG}" -a ${NAME} = "spl" ]; then
240                                 spl_dump_log
241                         fi
242
243                         unload_module ${MOD} || return 1
244                 fi
245         done
246
247         if [ ${VERBOSE} ]; then
248                 echo "Successfully unloaded ZFS module stack"
249         fi
250
251         return 0
252 }
253
254 #
255 # Check that the mdadm utilities are installed.
256 #
257 check_loop_utils() {
258         test -f ${LOSETUP} || die "${LOSETUP} utility must be installed"
259 }
260
261
262 #
263 # Find and return an unused loopback device.
264 #
265 unused_loop_device() {
266         for DEVICE in `ls -1 /dev/loop[0-9]* 2>/dev/null`; do
267                 ${LOSETUP} ${DEVICE} &>/dev/null
268                 if [ $? -ne 0 ]; then
269                         echo ${DEVICE}
270                         return
271                 fi
272         done
273
274         die "Error: Unable to find unused loopback device"
275 }
276
277 #
278 # This can be slightly dangerous because the loop devices we are
279 # cleaning up may not be ours.  However, if the devices are currently
280 # in use we will not be able to remove them, and we only remove
281 # devices which include 'zpool' in the name.  So any damage we might
282 # do should be limited to other zfs related testing.
283 #
284 cleanup_loop_devices() {
285         local TMP_FILE=`mktemp`
286
287         ${LOSETUP} -a | tr -d '()' >${TMP_FILE}
288         ${AWK} -F":" -v losetup="$LOSETUP" \
289             '/zpool/ { system("losetup -d "$1) }' ${TMP_FILE}
290         ${AWK} -F" " '/zpool/ { system("rm -f "$3) }' ${TMP_FILE}
291
292         rm -f ${TMP_FILE}
293 }
294
295 #
296 # Destroy the passed loopback devices, this is used when you know
297 # the names of the loopback devices.
298 #
299 destroy_loop_devices() {
300         local LODEVICES="$1"
301
302         msg "Destroying ${LODEVICES}"
303          ${LOSETUP} -d ${LODEVICES} || \
304                 die "Error $? destroying ${FILE} -> ${DEVICE} loopback"
305
306         rm -f ${FILES}
307         return 0
308 }
309
310 #
311 # Create a device label.
312 #
313 label() {
314         local DEVICE=$1
315         local LABEL=$2
316
317         ${PARTED} ${DEVICE} --script -- mklabel ${LABEL} || return 1
318
319         return 0
320 }
321
322 #
323 # Create a primary partition on a block device.
324 #
325 partition() {
326         local DEVICE=$1
327         local TYPE=$2
328         local START=$3
329         local END=$4
330
331         ${PARTED} --align optimal ${DEVICE} --script -- \
332             mkpart ${TYPE} ${START} ${END} || return 1
333         udev_trigger
334
335         return 0
336 }
337
338 #
339 # Create a filesystem on the block device
340 #
341 format() {
342         local DEVICE=$1
343         local FSTYPE=$2
344
345         # Force 4K blocksize, else mkfs.ext2 tries to use 8K, which
346         # won't mount
347         /sbin/mkfs.${FSTYPE} -b 4096 -F -q ${DEVICE} || return 1
348
349         return 0
350 }
351
352 #
353 # Check that the mdadm utilities are installed.
354 #
355 check_md_utils() {
356         test -f ${MDADM} || die "${MDADM} utility must be installed"
357         test -f ${PARTED} || die "${PARTED} utility must be installed"
358 }
359
360 check_md_partitionable() {
361         local LOFILE=`mktemp -p /tmp zpool-lo.XXXXXXXX`
362         local LODEVICE=`unused_loop_device`
363         local MDDEVICE=`unused_md_device`
364         local RESULT=1
365
366         check_md_utils
367
368         rm -f ${LOFILE}
369         dd if=/dev/zero of=${LOFILE} bs=1M count=0 seek=16 \
370                 &>/dev/null || return ${RESULT}
371
372         msg "Creating ${LODEVICE} using ${LOFILE}"
373         ${LOSETUP} ${LODEVICE} ${LOFILE}
374         if [ $? -ne 0 ]; then
375                 rm -f ${LOFILE}
376                 return ${RESULT}
377         fi
378
379         msg "Creating ${MDDEVICE} using ${LODEVICE}"
380         ${MDADM} --build ${MDDEVICE} --level=faulty \
381                 --raid-devices=1 ${LODEVICE} &>/dev/null
382         if [ $? -ne 0 ]; then
383                 destroy_loop_devices ${LODEVICE}
384                 rm -f ${LOFILE}
385                 return ${RESULT}
386         fi
387         wait_udev ${MDDEVICE} 30
388
389         ${BLOCKDEV} --rereadpt ${MDDEVICE} 2>/dev/null
390         RESULT=$?
391
392         destroy_md_devices ${MDDEVICE}
393         destroy_loop_devices ${LODEVICE}
394         rm -f ${LOFILE}
395
396         return ${RESULT}
397 }
398
399 #
400 # Find and return an unused md device.
401 #
402 unused_md_device() {
403         for (( i=0; i<32; i++ )); do
404                 MDDEVICE=md${i}
405
406                 # Skip active devicesudo in /proc/mdstat.
407                 grep -q "${MDDEVICE} " /proc/mdstat && continue
408
409                 # Device doesn't exist, use it.
410                 if [ ! -e $/dev/{MDDEVICE} ]; then
411                         echo /dev/${MDDEVICE}
412                         return
413                 fi
414
415                 # Device exists but may not be in use.
416                 if [ -b /dev/${MDDEVICE} ]; then
417                         ${MDADM} --detail /dev/${MDDEVICE} &>/dev/null
418                         if [ $? -eq 1 ]; then
419                                 echo /dev/${MDDEVICE}
420                                 return
421                         fi
422                 fi
423         done
424
425         die "Error: Unable to find unused md device"
426 }
427
428 #
429 # This can be slightly dangerous because it is possible the md devices
430 # we are cleaning up may not be ours.  However, if the devices are
431 # currently in use we will not be able to remove them, and even if
432 # we remove devices which were not out we do not zero the super block
433 # so you should be able to reconstruct them.
434 #
435 cleanup_md_devices() {
436         destroy_md_devices "`ls /dev/md* 2>/dev/null | grep -v p`"
437         udev_trigger
438 }
439
440 #
441 # Destroy the passed md devices, this is used when you know
442 # the names of the md devices.
443 #
444 destroy_md_devices() {
445         local MDDEVICES="$1"
446
447         msg "Destroying ${MDDEVICES}"
448         for MDDEVICE in ${MDDEVICES}; do
449                 ${MDADM} --stop ${MDDEVICE} &>/dev/null
450                 ${MDADM} --remove ${MDDEVICE} &>/dev/null
451                 ${MDADM} --detail ${MDDEVICE} &>/dev/null
452         done
453
454         return 0
455 }
456
457 #
458 # Check that the scsi utilities are installed.
459 #
460 check_sd_utils() {
461         ${INFOMOD} scsi_debug &>/dev/null || die "scsi_debug module required"
462         test -f ${LSSCSI} || die "${LSSCSI} utility must be installed"
463 }
464
465 #
466 # Rescan the scsi bus for scsi_debug devices.  It is preferable to use the
467 # scsi-rescan tool if it is installed, but if it's not we can fall back to
468 # removing and readding the device manually.  This rescan will only effect
469 # the first scsi_debug device if scsi-rescan is missing.
470 #
471 scsi_rescan() {
472         local AWK_SCRIPT="/scsi_debug/ { print \$1; exit }"
473
474         if [ -f ${SCSIRESCAN} ]; then
475                 ${SCSIRESCAN} --forcerescan --remove &>/dev/null
476         else
477                 local SCSIID=`${LSSCSI} | ${AWK} "${AWK_SCRIPT}" | tr -d '[]'`
478                 local SCSIHOST=`echo ${SCSIID} | cut -f1 -d':'`
479                 echo 1 >"/sys/class/scsi_device/${SCSIID}/device/delete"
480                 udev_trigger
481                 echo "- - -" >/sys/class/scsi_host/host${SCSIHOST}/scan
482                 udev_trigger
483         fi
484 }
485
486 #
487 # Trigger udev and wait for it to settle.
488 #
489 udev_trigger() {
490         if [ -f ${UDEVADM} ]; then
491                 ${UDEVADM} trigger --action=change --subsystem-match=block
492                 ${UDEVADM} settle
493         else
494                 /sbin/udevtrigger
495                 /sbin/udevsettle
496         fi
497 }
498
499 #
500 # The following udev helper functions assume that the provided
501 # udev rules file will create a /dev/disk/zpool/<CHANNEL><RANK>
502 # disk mapping.  In this mapping each CHANNEL is represented by
503 # the letters a-z, and the RANK is represented by the numbers
504 # 1-n.  A CHANNEL should identify a group of RANKS which are all
505 # attached to a single controller, each RANK represents a disk.
506 # This provides a simply mechanism to locate a specific drive
507 # given a known hardware configuration.
508 #
509 udev_setup() {
510         local SRC_PATH=$1
511
512         # When running in tree manually contruct symlinks in tree to
513         # the proper devices.  Symlinks are installed for all entires
514         # in the config file regardless of if that device actually
515         # exists.  When installed as a package udev can be relied on for
516         # this and it will only create links for devices which exist.
517         if [ ${INTREE} ]; then
518                 PWD=`pwd`
519                 mkdir -p ${DEVDIR}/
520                 cd ${DEVDIR}/
521                 ${AWK} '!/^#/ && /./ { system( \
522                         "ln -f -s /dev/disk/by-path/"$2" "$1";" \
523                         "ln -f -s /dev/disk/by-path/"$2"-part1 "$1"p1;" \
524                         "ln -f -s /dev/disk/by-path/"$2"-part9 "$1"p9;" \
525                         ) }' $SRC_PATH
526                 cd ${PWD}
527         else
528                 DST_FILE=`basename ${SRC_PATH} | cut -f1-2 -d'.'`
529                 DST_PATH=/etc/zfs/${DST_FILE}
530
531                 if [ -e ${DST_PATH} ]; then
532                         die "Error: Config ${DST_PATH} already exists"
533                 fi
534
535                 cp ${SRC_PATH} ${DST_PATH}
536                 udev_trigger
537         fi
538
539         return 0
540 }
541
542 udev_cleanup() {
543         local SRC_PATH=$1
544
545         if [ ${INTREE} ]; then
546                 PWD=`pwd`
547                 cd ${DEVDIR}/
548                 ${AWK} '!/^#/ && /./ { system( \
549                         "rm -f "$1" "$1"p1 "$1"p9") }' $SRC_PATH
550                 cd ${PWD}
551         fi
552
553         return 0
554 }
555
556 udev_cr2d() {
557         local CHANNEL=`echo "obase=16; $1+96" | bc`
558         local RANK=$2
559
560         printf "\x${CHANNEL}${RANK}"
561 }
562
563 udev_raid0_setup() {
564         local RANKS=$1
565         local CHANNELS=$2
566         local IDX=0
567
568         RAID0S=()
569         for RANK in `seq 1 ${RANKS}`; do
570                 for CHANNEL in `seq 1 ${CHANNELS}`; do
571                         DISK=`udev_cr2d ${CHANNEL} ${RANK}`
572                         RAID0S[${IDX}]="${DEVDIR}/${DISK}"
573                         let IDX=IDX+1
574                 done
575         done
576
577         return 0
578 }
579
580 udev_raid10_setup() {
581         local RANKS=$1
582         local CHANNELS=$2
583         local IDX=0
584
585         RAID10S=()
586         for RANK in `seq 1 ${RANKS}`; do
587                 for CHANNEL1 in `seq 1 2 ${CHANNELS}`; do
588                         let CHANNEL2=CHANNEL1+1
589                         DISK1=`udev_cr2d ${CHANNEL1} ${RANK}`
590                         DISK2=`udev_cr2d ${CHANNEL2} ${RANK}`
591                         GROUP="${DEVDIR}/${DISK1} ${DEVDIR}/${DISK2}"
592                         RAID10S[${IDX}]="mirror ${GROUP}"
593                         let IDX=IDX+1
594                 done
595         done
596
597         return 0
598 }
599
600 udev_raidz_setup() {
601         local RANKS=$1
602         local CHANNELS=$2
603
604         RAIDZS=()
605         for RANK in `seq 1 ${RANKS}`; do
606                 RAIDZ=("raidz")
607
608                 for CHANNEL in `seq 1 ${CHANNELS}`; do
609                         DISK=`udev_cr2d ${CHANNEL} ${RANK}`
610                         RAIDZ[${CHANNEL}]="${DEVDIR}/${DISK}"
611                 done
612
613                 RAIDZS[${RANK}]="${RAIDZ[*]}"
614         done
615
616         return 0
617 }
618
619 udev_raidz2_setup() {
620         local RANKS=$1
621         local CHANNELS=$2
622
623         RAIDZ2S=()
624         for RANK in `seq 1 ${RANKS}`; do
625                 RAIDZ2=("raidz2")
626
627                 for CHANNEL in `seq 1 ${CHANNELS}`; do
628                         DISK=`udev_cr2d ${CHANNEL} ${RANK}`
629                         RAIDZ2[${CHANNEL}]="${DEVDIR}/${DISK}"
630                 done
631
632                 RAIDZ2S[${RANK}]="${RAIDZ2[*]}"
633         done
634
635         return 0
636 }
637
638 run_one_test() {
639         local TEST_NUM=$1
640         local TEST_NAME=$2
641
642         printf "%-4d %-34s " ${TEST_NUM} "${TEST_NAME}"
643         test_${TEST_NUM}
644 }
645
646 skip_one_test() {
647         local TEST_NUM=$1
648         local TEST_NAME=$2
649
650         printf "%-4d %-34s " ${TEST_NUM} "${TEST_NAME}"
651         skip
652 }
653
654 run_test() {
655         local TEST_NUM=$1
656         local TEST_NAME=$2
657
658         for i in ${TESTS_SKIP[@]}; do
659                 if [[ $i == ${TEST_NUM} ]] ; then
660                         skip_one_test ${TEST_NUM} "${TEST_NAME}"
661                         return 0
662                 fi
663         done
664
665         if [ "${TESTS_RUN[0]}" = "*" ]; then
666                 run_one_test ${TEST_NUM} "${TEST_NAME}"
667         else
668                 for i in ${TESTS_RUN[@]}; do
669                         if [[ $i == ${TEST_NUM} ]] ; then
670                                 run_one_test ${TEST_NUM} "${TEST_NAME}"
671                                 return 0
672                         fi
673                 done
674
675                 skip_one_test ${TEST_NUM} "${TEST_NAME}"
676         fi
677 }
678
679 wait_udev() {
680         local DEVICE=$1
681         local DELAY=$2
682         local COUNT=0
683
684         udev_trigger
685         while [ ! -e ${DEVICE} ]; do
686                 if [ ${COUNT} -gt ${DELAY} ]; then
687                         return 1
688                 fi
689
690                 let COUNT=${COUNT}+1
691                 sleep 1
692         done
693
694         return 0
695 }
696
697 stack_clear() {
698         local STACK_MAX_SIZE=/sys/kernel/debug/tracing/stack_max_size
699         local STACK_TRACER_ENABLED=/proc/sys/kernel/stack_tracer_enabled
700
701         if [ -e $STACK_MAX_SIZE ]; then
702                 echo 1 >$STACK_TRACER_ENABLED
703                 echo 0 >$STACK_MAX_SIZE
704         fi
705 }
706
707 stack_check() {
708         local STACK_MAX_SIZE=/sys/kernel/debug/tracing/stack_max_size
709         local STACK_TRACE=/sys/kernel/debug/tracing/stack_trace
710         local STACK_LIMIT=7000
711
712         if [ -e $STACK_MAX_SIZE ]; then
713                 STACK_SIZE=`cat $STACK_MAX_SIZE`
714
715                 if [ $STACK_SIZE -ge $STACK_LIMIT ]; then
716                         echo
717                         echo "Warning: max stack size $STACK_SIZE bytes"
718                         cat $STACK_TRACE
719                 fi
720         fi
721 }