Update core ZFS code from build 121 to build 141.
[zfs.git] / module / zfs / dmu_object.c
index 1f91fc1..98228d4 100644 (file)
@@ -19,8 +19,7 @@
  * CDDL HEADER END
  */
 /*
- * Copyright 2009 Sun Microsystems, Inc.  All rights reserved.
- * Use is subject to license terms.
+ * Copyright (c) 2005, 2010, Oracle and/or its affiliates. All rights reserved.
  */
 
 #include <sys/dmu.h>
@@ -32,16 +31,15 @@ uint64_t
 dmu_object_alloc(objset_t *os, dmu_object_type_t ot, int blocksize,
     dmu_object_type_t bonustype, int bonuslen, dmu_tx_t *tx)
 {
-       objset_impl_t *osi = os->os;
        uint64_t object;
        uint64_t L2_dnode_count = DNODES_PER_BLOCK <<
-           (osi->os_meta_dnode->dn_indblkshift - SPA_BLKPTRSHIFT);
+           (os->os_meta_dnode->dn_indblkshift - SPA_BLKPTRSHIFT);
        dnode_t *dn = NULL;
        int restarted = B_FALSE;
 
-       mutex_enter(&osi->os_obj_lock);
+       mutex_enter(&os->os_obj_lock);
        for (;;) {
-               object = osi->os_obj_next;
+               object = os->os_obj_next;
                /*
                 * Each time we polish off an L2 bp worth of dnodes
                 * (2^13 objects), move to another L2 bp that's still
@@ -51,14 +49,14 @@ dmu_object_alloc(objset_t *os, dmu_object_type_t ot, int blocksize,
                 */
                if (P2PHASE(object, L2_dnode_count) == 0) {
                        uint64_t offset = restarted ? object << DNODE_SHIFT : 0;
-                       int error = dnode_next_offset(osi->os_meta_dnode,
+                       int error = dnode_next_offset(os->os_meta_dnode,
                            DNODE_FIND_HOLE,
                            &offset, 2, DNODES_PER_BLOCK >> 2, 0);
                        restarted = B_TRUE;
                        if (error == 0)
                                object = offset >> DNODE_SHIFT;
                }
-               osi->os_obj_next = ++object;
+               os->os_obj_next = ++object;
 
                /*
                 * XXX We should check for an i/o error here and return
@@ -66,19 +64,19 @@ dmu_object_alloc(objset_t *os, dmu_object_type_t ot, int blocksize,
                 * dmu_tx_assign(), but there is currently no mechanism
                 * to do so.
                 */
-               (void) dnode_hold_impl(os->os, object, DNODE_MUST_BE_FREE,
+               (void) dnode_hold_impl(os, object, DNODE_MUST_BE_FREE,
                    FTAG, &dn);
                if (dn)
                        break;
 
                if (dmu_object_next(os, &object, B_TRUE, 0) == 0)
-                       osi->os_obj_next = object - 1;
+                       os->os_obj_next = object - 1;
        }
 
        dnode_allocate(dn, ot, blocksize, 0, bonustype, bonuslen, tx);
        dnode_rele(dn, FTAG);
 
-       mutex_exit(&osi->os_obj_lock);
+       mutex_exit(&os->os_obj_lock);
 
        dmu_tx_add_new_object(tx, os, object);
        return (object);
@@ -94,7 +92,7 @@ dmu_object_claim(objset_t *os, uint64_t object, dmu_object_type_t ot,
        if (object == DMU_META_DNODE_OBJECT && !dmu_tx_private_ok(tx))
                return (EBADF);
 
-       err = dnode_hold_impl(os->os, object, DNODE_MUST_BE_FREE, FTAG, &dn);
+       err = dnode_hold_impl(os, object, DNODE_MUST_BE_FREE, FTAG, &dn);
        if (err)
                return (err);
        dnode_allocate(dn, ot, blocksize, 0, bonustype, bonuslen, tx);
@@ -116,7 +114,7 @@ dmu_object_reclaim(objset_t *os, uint64_t object, dmu_object_type_t ot,
        if (object == DMU_META_DNODE_OBJECT)
                return (EBADF);
 
-       err = dnode_hold_impl(os->os, object, DNODE_MUST_BE_ALLOCATED,
+       err = dnode_hold_impl(os, object, DNODE_MUST_BE_ALLOCATED,
            FTAG, &dn);
        if (err)
                return (err);
@@ -128,7 +126,11 @@ dmu_object_reclaim(objset_t *os, uint64_t object, dmu_object_type_t ot,
                return (0);
        }
 
-       nblkptr = 1 + ((DN_MAX_BONUSLEN - bonuslen) >> SPA_BLKPTRSHIFT);
+       if (bonustype == DMU_OT_SA) {
+               nblkptr = 1;
+       } else {
+               nblkptr = 1 + ((DN_MAX_BONUSLEN - bonuslen) >> SPA_BLKPTRSHIFT);
+       }
 
        /*
         * If we are losing blkptrs or changing the block size this must
@@ -166,7 +168,7 @@ dmu_object_free(objset_t *os, uint64_t object, dmu_tx_t *tx)
 
        ASSERT(object != DMU_META_DNODE_OBJECT || dmu_tx_private_ok(tx));
 
-       err = dnode_hold_impl(os->os, object, DNODE_MUST_BE_ALLOCATED,
+       err = dnode_hold_impl(os, object, DNODE_MUST_BE_ALLOCATED,
            FTAG, &dn);
        if (err)
                return (err);
@@ -185,7 +187,7 @@ dmu_object_next(objset_t *os, uint64_t *objectp, boolean_t hole, uint64_t txg)
        uint64_t offset = (*objectp + 1) << DNODE_SHIFT;
        int error;
 
-       error = dnode_next_offset(os->os->os_meta_dnode,
+       error = dnode_next_offset(os->os_meta_dnode,
            (hole ? DNODE_FIND_HOLE : 0), &offset, 0, DNODES_PER_BLOCK, txg);
 
        *objectp = offset >> DNODE_SHIFT;