Merge branch 'parisc-4.6-4' of git://git.kernel.org/pub/scm/linux/kernel/git/deller...
[cascardo/linux.git] / fs / nfs / callback_proc.c
index 807eb6e..618ced3 100644 (file)
@@ -83,8 +83,11 @@ __be32 nfs4_callback_recall(struct cb_recallargs *args, void *dummy,
 
        res = htonl(NFS4ERR_BADHANDLE);
        inode = nfs_delegation_find_inode(cps->clp, &args->fh);
-       if (inode == NULL)
+       if (inode == NULL) {
+               trace_nfs4_cb_recall(cps->clp, &args->fh, NULL,
+                               &args->stateid, -ntohl(res));
                goto out;
+       }
        /* Set up a helper thread to actually return the delegation */
        switch (nfs_async_inode_return_delegation(inode, &args->stateid)) {
        case 0:
@@ -96,7 +99,8 @@ __be32 nfs4_callback_recall(struct cb_recallargs *args, void *dummy,
        default:
                res = htonl(NFS4ERR_RESOURCE);
        }
-       trace_nfs4_recall_delegation(inode, -ntohl(res));
+       trace_nfs4_cb_recall(cps->clp, &args->fh, inode,
+                       &args->stateid, -ntohl(res));
        iput(inode);
 out:
        dprintk("%s: exit with status = %d\n", __func__, ntohl(res));
@@ -160,6 +164,22 @@ static struct pnfs_layout_hdr * get_layout_by_fh(struct nfs_client *clp,
        return lo;
 }
 
+/*
+ * Enforce RFC5661 section 12.5.5.2.1. (Layout Recall and Return Sequencing)
+ */
+static bool pnfs_check_stateid_sequence(struct pnfs_layout_hdr *lo,
+                                       const nfs4_stateid *new)
+{
+       u32 oldseq, newseq;
+
+       oldseq = be32_to_cpu(lo->plh_stateid.seqid);
+       newseq = be32_to_cpu(new->seqid);
+
+       if (newseq > oldseq + 1)
+               return false;
+       return true;
+}
+
 static u32 initiate_file_draining(struct nfs_client *clp,
                                  struct cb_layoutrecallargs *args)
 {
@@ -169,34 +189,52 @@ static u32 initiate_file_draining(struct nfs_client *clp,
        LIST_HEAD(free_me_list);
 
        lo = get_layout_by_fh(clp, &args->cbl_fh, &args->cbl_stateid);
-       if (!lo)
+       if (!lo) {
+               trace_nfs4_cb_layoutrecall_file(clp, &args->cbl_fh, NULL,
+                               &args->cbl_stateid, -rv);
                goto out;
+       }
 
        ino = lo->plh_inode;
 
        spin_lock(&ino->i_lock);
+       if (!pnfs_check_stateid_sequence(lo, &args->cbl_stateid)) {
+               rv = NFS4ERR_DELAY;
+               goto unlock;
+       }
        pnfs_set_layout_stateid(lo, &args->cbl_stateid, true);
        spin_unlock(&ino->i_lock);
 
        pnfs_layoutcommit_inode(ino, false);
 
        spin_lock(&ino->i_lock);
-       if (test_bit(NFS_LAYOUT_BULK_RECALL, &lo->plh_flags) ||
-           pnfs_mark_matching_lsegs_invalid(lo, &free_me_list,
-                                       &args->cbl_range)) {
+       /*
+        * Enforce RFC5661 Section 12.5.5.2.1.5 (Bulk Recall and Return)
+        */
+       if (test_bit(NFS_LAYOUT_BULK_RECALL, &lo->plh_flags)) {
                rv = NFS4ERR_DELAY;
                goto unlock;
        }
 
+       if (pnfs_mark_matching_lsegs_return(lo, &free_me_list,
+                                       &args->cbl_range)) {
+               rv = NFS4_OK;
+               goto unlock;
+       }
+
        if (NFS_SERVER(ino)->pnfs_curr_ld->return_range) {
                NFS_SERVER(ino)->pnfs_curr_ld->return_range(lo,
                        &args->cbl_range);
        }
+       pnfs_mark_layout_returned_if_empty(lo);
 unlock:
        spin_unlock(&ino->i_lock);
        pnfs_free_lseg_list(&free_me_list);
+       /* Free all lsegs that are attached to commit buckets */
+       nfs_commit_inode(ino, 0);
        pnfs_put_layout_hdr(lo);
-       trace_nfs4_cb_layoutrecall_inode(clp, &args->cbl_fh, ino, -rv);
+       trace_nfs4_cb_layoutrecall_file(clp, &args->cbl_fh, ino,
+                       &args->cbl_stateid, -rv);
        iput(ino);
 out:
        return rv;
@@ -316,47 +354,38 @@ out:
  * a single outstanding callback request at a time.
  */
 static __be32
-validate_seqid(struct nfs4_slot_table *tbl, struct cb_sequenceargs * args)
+validate_seqid(const struct nfs4_slot_table *tbl, const struct nfs4_slot *slot,
+               const struct cb_sequenceargs * args)
 {
-       struct nfs4_slot *slot;
-
-       dprintk("%s enter. slotid %u seqid %u\n",
-               __func__, args->csa_slotid, args->csa_sequenceid);
+       dprintk("%s enter. slotid %u seqid %u, slot table seqid: %u\n",
+               __func__, args->csa_slotid, args->csa_sequenceid, slot->seq_nr);
 
-       if (args->csa_slotid >= NFS41_BC_MAX_CALLBACKS)
+       if (args->csa_slotid > tbl->server_highest_slotid)
                return htonl(NFS4ERR_BADSLOT);
 
-       slot = tbl->slots + args->csa_slotid;
-       dprintk("%s slot table seqid: %u\n", __func__, slot->seq_nr);
-
-       /* Normal */
-       if (likely(args->csa_sequenceid == slot->seq_nr + 1))
-               goto out_ok;
-
        /* Replay */
        if (args->csa_sequenceid == slot->seq_nr) {
                dprintk("%s seqid %u is a replay\n",
                        __func__, args->csa_sequenceid);
+               if (nfs4_test_locked_slot(tbl, slot->slot_nr))
+                       return htonl(NFS4ERR_DELAY);
                /* Signal process_op to set this error on next op */
                if (args->csa_cachethis == 0)
                        return htonl(NFS4ERR_RETRY_UNCACHED_REP);
 
-               /* The ca_maxresponsesize_cached is 0 with no DRC */
-               else if (args->csa_cachethis == 1)
-                       return htonl(NFS4ERR_REP_TOO_BIG_TO_CACHE);
+               /* Liar! We never allowed you to set csa_cachethis != 0 */
+               return htonl(NFS4ERR_SEQ_FALSE_RETRY);
        }
 
        /* Wraparound */
-       if (args->csa_sequenceid == 1 && (slot->seq_nr + 1) == 0) {
-               slot->seq_nr = 1;
-               goto out_ok;
-       }
+       if (unlikely(slot->seq_nr == 0xFFFFFFFFU)) {
+               if (args->csa_sequenceid == 1)
+                       return htonl(NFS4_OK);
+       } else if (likely(args->csa_sequenceid == slot->seq_nr + 1))
+               return htonl(NFS4_OK);
 
        /* Misordered request */
        return htonl(NFS4ERR_SEQ_MISORDERED);
-out_ok:
-       tbl->highest_used_slotid = args->csa_slotid;
-       return htonl(NFS4_OK);
 }
 
 /*
@@ -435,6 +464,12 @@ __be32 nfs4_callback_sequence(struct cb_sequenceargs *args,
        tbl = &clp->cl_session->bc_slot_table;
        slot = tbl->slots + args->csa_slotid;
 
+       /* Set up res before grabbing the spinlock */
+       memcpy(&res->csr_sessionid, &args->csa_sessionid,
+              sizeof(res->csr_sessionid));
+       res->csr_sequenceid = args->csa_sequenceid;
+       res->csr_slotid = args->csa_slotid;
+
        spin_lock(&tbl->slot_tbl_lock);
        /* state manager is resetting the session */
        if (test_bit(NFS4_SLOT_TBL_DRAINING, &tbl->slot_tbl_state)) {
@@ -447,18 +482,26 @@ __be32 nfs4_callback_sequence(struct cb_sequenceargs *args,
                goto out_unlock;
        }
 
-       memcpy(&res->csr_sessionid, &args->csa_sessionid,
-              sizeof(res->csr_sessionid));
-       res->csr_sequenceid = args->csa_sequenceid;
-       res->csr_slotid = args->csa_slotid;
-       res->csr_highestslotid = NFS41_BC_MAX_CALLBACKS - 1;
-       res->csr_target_highestslotid = NFS41_BC_MAX_CALLBACKS - 1;
+       status = htonl(NFS4ERR_BADSLOT);
+       slot = nfs4_lookup_slot(tbl, args->csa_slotid);
+       if (IS_ERR(slot))
+               goto out_unlock;
+
+       res->csr_highestslotid = tbl->server_highest_slotid;
+       res->csr_target_highestslotid = tbl->target_highest_slotid;
 
-       status = validate_seqid(tbl, args);
+       status = validate_seqid(tbl, slot, args);
        if (status)
                goto out_unlock;
+       if (!nfs4_try_to_lock_slot(tbl, slot)) {
+               status = htonl(NFS4ERR_DELAY);
+               goto out_unlock;
+       }
+       cps->slot = slot;
 
-       cps->slotid = args->csa_slotid;
+       /* The ca_maxresponsesize_cached is 0 with no DRC */
+       if (args->csa_cachethis != 0)
+               return htonl(NFS4ERR_REP_TOO_BIG_TO_CACHE);
 
        /*
         * Check for pending referring calls.  If a match is found, a
@@ -475,7 +518,7 @@ __be32 nfs4_callback_sequence(struct cb_sequenceargs *args,
         * If CB_SEQUENCE returns an error, then the state of the slot
         * (sequence ID, cached reply) MUST NOT change.
         */
-       slot->seq_nr++;
+       slot->seq_nr = args->csa_sequenceid;
 out_unlock:
        spin_unlock(&tbl->slot_tbl_lock);