]> asedeno.scripts.mit.edu Git - linux.git/blobdiff - ipc/sem.c
ipc/sem: play nicer with large nsops allocations
[linux.git] / ipc / sem.c
index c6c50370504cc9b5a6e9dcd0b50193414caf88a2..4c0cfaad560c3627715ca99cfbd584f8211d42f3 100644 (file)
--- a/ipc/sem.c
+++ b/ipc/sem.c
@@ -122,7 +122,7 @@ struct sem_undo {
  * that may be shared among all a CLONE_SYSVSEM task group.
  */
 struct sem_undo_list {
-       atomic_t                refcnt;
+       refcount_t              refcnt;
        spinlock_t              lock;
        struct list_head        list_proc;
 };
@@ -130,8 +130,6 @@ struct sem_undo_list {
 
 #define sem_ids(ns)    ((ns)->ids[IPC_SEM_IDS])
 
-#define sem_checkid(sma, semid)        ipc_checkid(&sma->sem_perm, semid)
-
 static int newary(struct ipc_namespace *, struct ipc_params *);
 static void freeary(struct ipc_namespace *, struct kern_ipc_perm *);
 #ifdef CONFIG_PROC_FS
@@ -1642,7 +1640,7 @@ static inline int get_undo_list(struct sem_undo_list **undo_listp)
                if (undo_list == NULL)
                        return -ENOMEM;
                spin_lock_init(&undo_list->lock);
-               atomic_set(&undo_list->refcnt, 1);
+               refcount_set(&undo_list->refcnt, 1);
                INIT_LIST_HEAD(&undo_list->list_proc);
 
                current->sysvsem.undo_list = undo_list;
@@ -1786,7 +1784,7 @@ SYSCALL_DEFINE4(semtimedop, int, semid, struct sembuf __user *, tsops,
        if (nsops > ns->sc_semopm)
                return -E2BIG;
        if (nsops > SEMOPM_FAST) {
-               sops = kmalloc(sizeof(*sops)*nsops, GFP_KERNEL);
+               sops = kvmalloc(sizeof(*sops)*nsops, GFP_KERNEL);
                if (sops == NULL)
                        return -ENOMEM;
        }
@@ -2018,7 +2016,7 @@ SYSCALL_DEFINE4(semtimedop, int, semid, struct sembuf __user *, tsops,
        rcu_read_unlock();
 out_free:
        if (sops != fast_sops)
-               kfree(sops);
+               kvfree(sops);
        return error;
 }
 
@@ -2041,7 +2039,7 @@ int copy_semundo(unsigned long clone_flags, struct task_struct *tsk)
                error = get_undo_list(&undo_list);
                if (error)
                        return error;
-               atomic_inc(&undo_list->refcnt);
+               refcount_inc(&undo_list->refcnt);
                tsk->sysvsem.undo_list = undo_list;
        } else
                tsk->sysvsem.undo_list = NULL;
@@ -2070,7 +2068,7 @@ void exit_sem(struct task_struct *tsk)
                return;
        tsk->sysvsem.undo_list = NULL;
 
-       if (!atomic_dec_and_test(&ulp->refcnt))
+       if (!refcount_dec_and_test(&ulp->refcnt))
                return;
 
        for (;;) {