[BACK]Return to subr_pool.c CVS log [TXT][DIR] Up to [cvs.NetBSD.org] / src / sys / kern

Please note that diffs are not public domain; they are subject to the copyright notices on the relevant files.

Diff for /src/sys/kern/subr_pool.c between version 1.122.4.2 and 1.132

version 1.122.4.2, 2006/12/10 07:18:45 version 1.132, 2007/10/11 19:45:25
Line 1 
Line 1 
 /*      $NetBSD$        */  /*      $NetBSD$        */
   
 /*-  /*-
  * Copyright (c) 1997, 1999, 2000 The NetBSD Foundation, Inc.   * Copyright (c) 1997, 1999, 2000, 2002 The NetBSD Foundation, Inc.
  * All rights reserved.   * All rights reserved.
  *   *
  * This code is derived from software contributed to The NetBSD Foundation   * This code is derived from software contributed to The NetBSD Foundation
Line 53  __KERNEL_RCSID(0, "$NetBSD$");
Line 53  __KERNEL_RCSID(0, "$NetBSD$");
 #include <sys/lock.h>  #include <sys/lock.h>
 #include <sys/pool.h>  #include <sys/pool.h>
 #include <sys/syslog.h>  #include <sys/syslog.h>
   #include <sys/debug.h>
   
 #include <uvm/uvm.h>  #include <uvm/uvm.h>
   
Line 111  struct pool_item_header {
Line 112  struct pool_item_header {
                                 ph_pagelist;    /* pool page list */                                  ph_pagelist;    /* pool page list */
         SPLAY_ENTRY(pool_item_header)          SPLAY_ENTRY(pool_item_header)
                                 ph_node;        /* Off-page page headers */                                  ph_node;        /* Off-page page headers */
         caddr_t                 ph_page;        /* this page's address */          void *                  ph_page;        /* this page's address */
         struct timeval          ph_time;        /* last referenced */          struct timeval          ph_time;        /* last referenced */
         union {          union {
                 /* !PR_NOTOUCH */                  /* !PR_NOTOUCH */
Line 183  static void pool_cache_reclaim(struct po
Line 184  static void pool_cache_reclaim(struct po
 static void     pcg_grouplist_free(struct pool_cache_grouplist *);  static void     pcg_grouplist_free(struct pool_cache_grouplist *);
   
 static int      pool_catchup(struct pool *);  static int      pool_catchup(struct pool *);
 static void     pool_prime_page(struct pool *, caddr_t,  static void     pool_prime_page(struct pool *, void *,
                     struct pool_item_header *);                      struct pool_item_header *);
 static void     pool_update_curpage(struct pool *);  static void     pool_update_curpage(struct pool *);
   
Line 325  pr_item_notouch_index(const struct pool 
Line 326  pr_item_notouch_index(const struct pool 
         int idx;          int idx;
   
         KASSERT(pp->pr_roflags & PR_NOTOUCH);          KASSERT(pp->pr_roflags & PR_NOTOUCH);
         idx = (cp - ph->ph_page - ph->ph_off) / pp->pr_size;          idx = (cp - (char *)ph->ph_page - ph->ph_off) / pp->pr_size;
         KASSERT(idx < pp->pr_itemsperpage);          KASSERT(idx < pp->pr_itemsperpage);
         return idx;          return idx;
 }  }
Line 358  pr_item_notouch_get(const struct pool *p
Line 359  pr_item_notouch_get(const struct pool *p
         ph->ph_firstfree = freelist[idx];          ph->ph_firstfree = freelist[idx];
         freelist[idx] = PR_INDEX_USED;          freelist[idx] = PR_INDEX_USED;
   
         return ph->ph_page + ph->ph_off + idx * pp->pr_size;          return (char *)ph->ph_page + ph->ph_off + idx * pp->pr_size;
 }  }
   
 static inline int  static inline int
Line 390  pr_find_pagehead(struct pool *pp, void *
Line 391  pr_find_pagehead(struct pool *pp, void *
         struct pool_item_header *ph, tmp;          struct pool_item_header *ph, tmp;
   
         if ((pp->pr_roflags & PR_NOALIGN) != 0) {          if ((pp->pr_roflags & PR_NOALIGN) != 0) {
                 tmp.ph_page = (caddr_t)(uintptr_t)v;                  tmp.ph_page = (void *)(uintptr_t)v;
                 ph = SPLAY_FIND(phtree, &pp->pr_phtree, &tmp);                  ph = SPLAY_FIND(phtree, &pp->pr_phtree, &tmp);
                 if (ph == NULL) {                  if (ph == NULL) {
                         ph = SPLAY_ROOT(&pp->pr_phtree);                          ph = SPLAY_ROOT(&pp->pr_phtree);
Line 400  pr_find_pagehead(struct pool *pp, void *
Line 401  pr_find_pagehead(struct pool *pp, void *
                         KASSERT(ph == NULL || phtree_compare(&tmp, ph) < 0);                          KASSERT(ph == NULL || phtree_compare(&tmp, ph) < 0);
                 }                  }
         } else {          } else {
                 caddr_t page =                  void *page =
                     (caddr_t)((uintptr_t)v & pp->pr_alloc->pa_pagemask);                      (void *)((uintptr_t)v & pp->pr_alloc->pa_pagemask);
   
                 if ((pp->pr_roflags & PR_PHINPAGE) != 0) {                  if ((pp->pr_roflags & PR_PHINPAGE) != 0) {
                         ph = (void *)(page + pp->pr_phoffset);                          ph = (struct pool_item_header *)((char *)page + pp->pr_phoffset);
                 } else {                  } else {
                         tmp.ph_page = page;                          tmp.ph_page = page;
                         ph = SPLAY_FIND(phtree, &pp->pr_phtree, &tmp);                          ph = SPLAY_FIND(phtree, &pp->pr_phtree, &tmp);
Line 412  pr_find_pagehead(struct pool *pp, void *
Line 413  pr_find_pagehead(struct pool *pp, void *
         }          }
   
         KASSERT(ph == NULL || ((pp->pr_roflags & PR_PHINPAGE) != 0) ||          KASSERT(ph == NULL || ((pp->pr_roflags & PR_PHINPAGE) != 0) ||
             (ph->ph_page <= (char *)v &&              ((char *)ph->ph_page <= (char *)v &&
             (char *)v < ph->ph_page + pp->pr_alloc->pa_pagesz));              (char *)v < (char *)ph->ph_page + pp->pr_alloc->pa_pagesz));
         return ph;          return ph;
 }  }
   
Line 473  pr_rmpage(struct pool *pp, struct pool_i
Line 474  pr_rmpage(struct pool *pp, struct pool_i
         pool_update_curpage(pp);          pool_update_curpage(pp);
 }  }
   
 static boolean_t  static bool
 pa_starved_p(struct pool_allocator *pa)  pa_starved_p(struct pool_allocator *pa)
 {  {
   
         if (pa->pa_backingmap != NULL) {          if (pa->pa_backingmap != NULL) {
                 return vm_map_starved_p(pa->pa_backingmap);                  return vm_map_starved_p(pa->pa_backingmap);
         }          }
         return FALSE;          return false;
 }  }
   
 static int  static int
Line 559  pool_subsystem_init(void)
Line 560  pool_subsystem_init(void)
         __link_set_foreach(pi, pools)          __link_set_foreach(pi, pools)
                 pool_init((*pi)->pp, (*pi)->size, (*pi)->align,                  pool_init((*pi)->pp, (*pi)->size, (*pi)->align,
                     (*pi)->align_offset, (*pi)->flags, (*pi)->wchan,                      (*pi)->align_offset, (*pi)->flags, (*pi)->wchan,
                     (*pi)->palloc);                      (*pi)->palloc, (*pi)->ipl);
   
         while ((pa = SLIST_FIRST(&pa_deferinitq)) != NULL) {          while ((pa = SLIST_FIRST(&pa_deferinitq)) != NULL) {
                 KASSERT(pa->pa_backingmapptr != NULL);                  KASSERT(pa->pa_backingmapptr != NULL);
Line 577  pool_subsystem_init(void)
Line 578  pool_subsystem_init(void)
  */   */
 void  void
 pool_init(struct pool *pp, size_t size, u_int align, u_int ioff, int flags,  pool_init(struct pool *pp, size_t size, u_int align, u_int ioff, int flags,
     const char *wchan, struct pool_allocator *palloc)      const char *wchan, struct pool_allocator *palloc, int ipl)
 {  {
 #ifdef DEBUG  #ifdef DEBUG
         struct pool *pp1;          struct pool *pp1;
Line 674  pool_init(struct pool *pp, size_t size, 
Line 675  pool_init(struct pool *pp, size_t size, 
         pp->pr_hardlimit_warning_last.tv_usec = 0;          pp->pr_hardlimit_warning_last.tv_usec = 0;
         pp->pr_drain_hook = NULL;          pp->pr_drain_hook = NULL;
         pp->pr_drain_hook_arg = NULL;          pp->pr_drain_hook_arg = NULL;
           pp->pr_freecheck = NULL;
   
         /*          /*
          * Decide whether to put the page header off page to avoid           * Decide whether to put the page header off page to avoid
Line 790  pool_init(struct pool *pp, size_t size, 
Line 792  pool_init(struct pool *pp, size_t size, 
                                     + nelem * sizeof(pool_item_freelist_t);                                      + nelem * sizeof(pool_item_freelist_t);
                         }                          }
                         pool_init(&phpool[idx], sz, 0, 0, 0,                          pool_init(&phpool[idx], sz, 0, 0, 0,
                             phpool_names[idx], &pool_allocator_meta);                              phpool_names[idx], &pool_allocator_meta, IPL_VM);
                 }                  }
 #ifdef POOL_SUBPAGE  #ifdef POOL_SUBPAGE
                 pool_init(&psppool, POOL_SUBPAGE, POOL_SUBPAGE, 0,                  pool_init(&psppool, POOL_SUBPAGE, POOL_SUBPAGE, 0,
                     PR_RECURSIVE, "psppool", &pool_allocator_meta);                      PR_RECURSIVE, "psppool", &pool_allocator_meta, IPL_VM);
 #endif  #endif
                 pool_init(&pcgpool, sizeof(struct pool_cache_group), 0, 0,                  pool_init(&pcgpool, sizeof(struct pool_cache_group), 0, 0,
                     0, "pcgpool", &pool_allocator_meta);                      0, "pcgpool", &pool_allocator_meta, IPL_VM);
         }          }
   
         /* Insert into the list of all pools. */          /* Insert into the list of all pools. */
Line 885  pool_set_drain_hook(struct pool *pp, voi
Line 887  pool_set_drain_hook(struct pool *pp, voi
 }  }
   
 static struct pool_item_header *  static struct pool_item_header *
 pool_alloc_item_header(struct pool *pp, caddr_t storage, int flags)  pool_alloc_item_header(struct pool *pp, void *storage, int flags)
 {  {
         struct pool_item_header *ph;          struct pool_item_header *ph;
         int s;          int s;
Line 893  pool_alloc_item_header(struct pool *pp, 
Line 895  pool_alloc_item_header(struct pool *pp, 
         LOCK_ASSERT(simple_lock_held(&pp->pr_slock) == 0);          LOCK_ASSERT(simple_lock_held(&pp->pr_slock) == 0);
   
         if ((pp->pr_roflags & PR_PHINPAGE) != 0)          if ((pp->pr_roflags & PR_PHINPAGE) != 0)
                 ph = (struct pool_item_header *) (storage + pp->pr_phoffset);                  ph = (struct pool_item_header *) ((char *)storage + pp->pr_phoffset);
         else {          else {
                 s = splvm();                  s = splvm();
                 ph = pool_get(pp->pr_phpool, flags);                  ph = pool_get(pp->pr_phpool, flags);
Line 929  pool_get(struct pool *pp, int flags)
Line 931  pool_get(struct pool *pp, int flags)
 #ifdef LOCKDEBUG  #ifdef LOCKDEBUG
         if (flags & PR_WAITOK)          if (flags & PR_WAITOK)
                 ASSERT_SLEEPABLE(NULL, "pool_get(PR_WAITOK)");                  ASSERT_SLEEPABLE(NULL, "pool_get(PR_WAITOK)");
         SCHED_ASSERT_UNLOCKED();  
 #endif  #endif
   
         simple_lock(&pp->pr_slock);          simple_lock(&pp->pr_slock);
Line 1135  pool_get(struct pool *pp, int flags)
Line 1136  pool_get(struct pool *pp, int flags)
         }          }
   
         simple_unlock(&pp->pr_slock);          simple_unlock(&pp->pr_slock);
           KASSERT((((vaddr_t)v + pp->pr_itemoffset) & (pp->pr_align - 1)) == 0);
           FREECHECK_OUT(&pp->pr_freecheck, v);
         return (v);          return (v);
 }  }
   
Line 1148  pool_do_put(struct pool *pp, void *v, st
Line 1151  pool_do_put(struct pool *pp, void *v, st
         struct pool_item_header *ph;          struct pool_item_header *ph;
   
         LOCK_ASSERT(simple_lock_held(&pp->pr_slock));          LOCK_ASSERT(simple_lock_held(&pp->pr_slock));
         SCHED_ASSERT_UNLOCKED();          FREECHECK_IN(&pp->pr_freecheck, v);
   
 #ifdef DIAGNOSTIC  #ifdef DIAGNOSTIC
         if (__predict_false(pp->pr_nout == 0)) {          if (__predict_false(pp->pr_nout == 0)) {
Line 1163  pool_do_put(struct pool *pp, void *v, st
Line 1166  pool_do_put(struct pool *pp, void *v, st
                 panic("pool_put: %s: page header missing", pp->pr_wchan);                  panic("pool_put: %s: page header missing", pp->pr_wchan);
         }          }
   
 #ifdef LOCKDEBUG  
         /*  
          * Check if we're freeing a locked simple lock.  
          */  
         simple_lock_freecheck((caddr_t)pi, ((caddr_t)pi) + pp->pr_size);  
 #endif  
   
         /*          /*
          * Return to item list.           * Return to item list.
          */           */
Line 1205  pool_do_put(struct pool *pp, void *v, st
Line 1201  pool_do_put(struct pool *pp, void *v, st
                 pp->pr_flags &= ~PR_WANTED;                  pp->pr_flags &= ~PR_WANTED;
                 if (ph->ph_nmissing == 0)                  if (ph->ph_nmissing == 0)
                         pp->pr_nidle++;                          pp->pr_nidle++;
                 wakeup((caddr_t)pp);                  wakeup((void *)pp);
                 return;                  return;
         }          }
   
Line 1367  pool_prime(struct pool *pp, int n)
Line 1363  pool_prime(struct pool *pp, int n)
  * Note, we must be called with the pool descriptor LOCKED.   * Note, we must be called with the pool descriptor LOCKED.
  */   */
 static void  static void
 pool_prime_page(struct pool *pp, caddr_t storage, struct pool_item_header *ph)  pool_prime_page(struct pool *pp, void *storage, struct pool_item_header *ph)
 {  {
         struct pool_item *pi;          struct pool_item *pi;
         caddr_t cp = storage;          void *cp = storage;
         unsigned int align = pp->pr_align;          const unsigned int align = pp->pr_align;
         unsigned int ioff = pp->pr_itemoffset;          const unsigned int ioff = pp->pr_itemoffset;
         int n;          int n;
   
         LOCK_ASSERT(simple_lock_held(&pp->pr_slock));          LOCK_ASSERT(simple_lock_held(&pp->pr_slock));
Line 1399  pool_prime_page(struct pool *pp, caddr_t
Line 1395  pool_prime_page(struct pool *pp, caddr_t
         /*          /*
          * Color this page.           * Color this page.
          */           */
         cp = (caddr_t)(cp + pp->pr_curcolor);          cp = (char *)cp + pp->pr_curcolor;
         if ((pp->pr_curcolor += align) > pp->pr_maxcolor)          if ((pp->pr_curcolor += align) > pp->pr_maxcolor)
                 pp->pr_curcolor = 0;                  pp->pr_curcolor = 0;
   
Line 1407  pool_prime_page(struct pool *pp, caddr_t
Line 1403  pool_prime_page(struct pool *pp, caddr_t
          * Adjust storage to apply aligment to `pr_itemoffset' in each item.           * Adjust storage to apply aligment to `pr_itemoffset' in each item.
          */           */
         if (ioff != 0)          if (ioff != 0)
                 cp = (caddr_t)(cp + (align - ioff));                  cp = (char *)cp + align - ioff;
   
           KASSERT((((vaddr_t)cp + ioff) & (align - 1)) == 0);
   
         /*          /*
          * Insert remaining chunks on the bucket list.           * Insert remaining chunks on the bucket list.
Line 1419  pool_prime_page(struct pool *pp, caddr_t
Line 1417  pool_prime_page(struct pool *pp, caddr_t
                 pool_item_freelist_t *freelist = PR_FREELIST(ph);                  pool_item_freelist_t *freelist = PR_FREELIST(ph);
                 int i;                  int i;
   
                 ph->ph_off = cp - storage;                  ph->ph_off = (char *)cp - (char *)storage;
                 ph->ph_firstfree = 0;                  ph->ph_firstfree = 0;
                 for (i = 0; i < n - 1; i++)                  for (i = 0; i < n - 1; i++)
                         freelist[i] = i + 1;                          freelist[i] = i + 1;
Line 1435  pool_prime_page(struct pool *pp, caddr_t
Line 1433  pool_prime_page(struct pool *pp, caddr_t
 #ifdef DIAGNOSTIC  #ifdef DIAGNOSTIC
                         pi->pi_magic = PI_MAGIC;                          pi->pi_magic = PI_MAGIC;
 #endif  #endif
                         cp = (caddr_t)(cp + pp->pr_size);                          cp = (char *)cp + pp->pr_size;
   
                           KASSERT((((vaddr_t)cp + ioff) & (align - 1)) == 0);
                 }                  }
         }          }
   
Line 1617  pool_reclaim(struct pool *pp)
Line 1617  pool_reclaim(struct pool *pp)
  * Drain pools, one at a time.   * Drain pools, one at a time.
  *   *
  * Note, we must never be called from an interrupt context.   * Note, we must never be called from an interrupt context.
    *
    * XXX Pool can disappear while draining.
  */   */
 void  void
 pool_drain(void *arg)  pool_drain(void *arg)
Line 1836  static int
Line 1838  static int
 pool_chk_page(struct pool *pp, const char *label, struct pool_item_header *ph)  pool_chk_page(struct pool *pp, const char *label, struct pool_item_header *ph)
 {  {
         struct pool_item *pi;          struct pool_item *pi;
         caddr_t page;          void *page;
         int n;          int n;
   
         if ((pp->pr_roflags & PR_NOALIGN) == 0) {          if ((pp->pr_roflags & PR_NOALIGN) == 0) {
                 page = (caddr_t)((uintptr_t)ph & pp->pr_alloc->pa_pagemask);                  page = (void *)((uintptr_t)ph & pp->pr_alloc->pa_pagemask);
                 if (page != ph->ph_page &&                  if (page != ph->ph_page &&
                     (pp->pr_roflags & PR_PHINPAGE) != 0) {                      (pp->pr_roflags & PR_PHINPAGE) != 0) {
                         if (label != NULL)                          if (label != NULL)
Line 1874  pool_chk_page(struct pool *pp, const cha
Line 1876  pool_chk_page(struct pool *pp, const cha
                 if ((pp->pr_roflags & PR_NOALIGN) != 0) {                  if ((pp->pr_roflags & PR_NOALIGN) != 0) {
                         continue;                          continue;
                 }                  }
                 page = (caddr_t)((uintptr_t)pi & pp->pr_alloc->pa_pagemask);                  page = (void *)((uintptr_t)pi & pp->pr_alloc->pa_pagemask);
                 if (page == ph->ph_page)                  if (page == ph->ph_page)
                         continue;                          continue;
   
Line 2068  pool_cache_get_paddr(struct pool_cache *
Line 2070  pool_cache_get_paddr(struct pool_cache *
                                 return (NULL);                                  return (NULL);
                         }                          }
                 }                  }
                   KASSERT((((vaddr_t)object + pc->pc_pool->pr_itemoffset) &
                       (pc->pc_pool->pr_align - 1)) == 0);
                 if (object != NULL && pap != NULL) {                  if (object != NULL && pap != NULL) {
 #ifdef POOL_VTOPHYS  #ifdef POOL_VTOPHYS
                         *pap = POOL_VTOPHYS(object);                          *pap = POOL_VTOPHYS(object);
Line 2075  pool_cache_get_paddr(struct pool_cache *
Line 2079  pool_cache_get_paddr(struct pool_cache *
                         *pap = POOL_PADDR_INVALID;                          *pap = POOL_PADDR_INVALID;
 #endif  #endif
                 }                  }
   
                   FREECHECK_OUT(&pc->pc_freecheck, object);
                 return (object);                  return (object);
         }          }
   
Line 2088  pool_cache_get_paddr(struct pool_cache *
Line 2094  pool_cache_get_paddr(struct pool_cache *
         }          }
         simple_unlock(&pc->pc_slock);          simple_unlock(&pc->pc_slock);
   
           KASSERT((((vaddr_t)object + pc->pc_pool->pr_itemoffset) &
               (pc->pc_pool->pr_align - 1)) == 0);
           FREECHECK_OUT(&pc->pc_freecheck, object);
         return (object);          return (object);
 }  }
   
Line 2103  pool_cache_put_paddr(struct pool_cache *
Line 2112  pool_cache_put_paddr(struct pool_cache *
         struct pool_cache_group *pcg;          struct pool_cache_group *pcg;
         int s;          int s;
   
           FREECHECK_IN(&pc->pc_freecheck, object);
   
         if (__predict_false((pc->pc_pool->pr_flags & PR_WANTED) != 0)) {          if (__predict_false((pc->pc_pool->pr_flags & PR_WANTED) != 0)) {
                 goto destruct;                  goto destruct;
         }          }
Line 2168  pool_cache_destruct_object(struct pool_c
Line 2179  pool_cache_destruct_object(struct pool_c
         pool_put(pc->pc_pool, object);          pool_put(pc->pc_pool, object);
 }  }
   
   /*
    * pool_do_cache_invalidate_grouplist:
    *
    *      Invalidate a single grouplist and destruct all objects.
    *      XXX This is too expensive.  We should swap the list then
    *      unlock.
    */
 static void  static void
 pool_do_cache_invalidate_grouplist(struct pool_cache_grouplist *pcgsl,  pool_do_cache_invalidate_grouplist(struct pool_cache_grouplist *pcgsl,
     struct pool_cache *pc, struct pool_pagelist *pq,      struct pool_cache *pc, struct pool_pagelist *pq,
     struct pool_cache_grouplist *pcgdl)      struct pool_cache_grouplist *pcgdl)
 {  {
         struct pool_cache_group *pcg, *npcg;          struct pool_cache_group *pcg;
         void *object;          void *object;
   
         for (pcg = LIST_FIRST(pcgsl); pcg != NULL; pcg = npcg) {          LOCK_ASSERT(simple_lock_held(&pc->pc_slock));
                 npcg = LIST_NEXT(pcg, pcg_list);          LOCK_ASSERT(simple_lock_held(&pc->pc_pool->pr_slock));
   
           while ((pcg = LIST_FIRST(pcgsl)) != NULL) {
                   pc->pc_ngroups--;
                   LIST_REMOVE(pcg, pcg_list);
                   LIST_INSERT_HEAD(pcgdl, pcg, pcg_list);
                   pc->pc_nitems -= pcg->pcg_avail;
                   simple_unlock(&pc->pc_pool->pr_slock);
                   simple_unlock(&pc->pc_slock);
   
                 while (pcg->pcg_avail != 0) {                  while (pcg->pcg_avail != 0) {
                         pc->pc_nitems--;  
                         object = pcg_get(pcg, NULL);                          object = pcg_get(pcg, NULL);
                         if (pc->pc_dtor != NULL)                          if (pc->pc_dtor != NULL)
                                 (*pc->pc_dtor)(pc->pc_arg, object);                                  (*pc->pc_dtor)(pc->pc_arg, object);
                           simple_lock(&pc->pc_pool->pr_slock);
                         pool_do_put(pc->pc_pool, object, pq);                          pool_do_put(pc->pc_pool, object, pq);
                           simple_unlock(&pc->pc_pool->pr_slock);
                 }                  }
                 pc->pc_ngroups--;  
                 LIST_REMOVE(pcg, pcg_list);                  simple_lock(&pc->pc_slock);
                 LIST_INSERT_HEAD(pcgdl, pcg, pcg_list);                  simple_lock(&pc->pc_pool->pr_slock);
         }          }
 }  }
   
Line 2355  pool_allocator_free(struct pool *pp, voi
Line 2383  pool_allocator_free(struct pool *pp, voi
 void *  void *
 pool_page_alloc(struct pool *pp, int flags)  pool_page_alloc(struct pool *pp, int flags)
 {  {
         boolean_t waitok = (flags & PR_WAITOK) ? TRUE : FALSE;          bool waitok = (flags & PR_WAITOK) ? true : false;
   
         return ((void *) uvm_km_alloc_poolpage_cache(kmem_map, waitok));          return ((void *) uvm_km_alloc_poolpage_cache(kmem_map, waitok));
 }  }
Line 2370  pool_page_free(struct pool *pp, void *v)
Line 2398  pool_page_free(struct pool *pp, void *v)
 static void *  static void *
 pool_page_alloc_meta(struct pool *pp, int flags)  pool_page_alloc_meta(struct pool *pp, int flags)
 {  {
         boolean_t waitok = (flags & PR_WAITOK) ? TRUE : FALSE;          bool waitok = (flags & PR_WAITOK) ? true : false;
   
         return ((void *) uvm_km_alloc_poolpage(kmem_map, waitok));          return ((void *) uvm_km_alloc_poolpage(kmem_map, waitok));
 }  }
Line 2422  pool_subpage_free_nointr(struct pool *pp
Line 2450  pool_subpage_free_nointr(struct pool *pp
 void *  void *
 pool_page_alloc_nointr(struct pool *pp, int flags)  pool_page_alloc_nointr(struct pool *pp, int flags)
 {  {
         boolean_t waitok = (flags & PR_WAITOK) ? TRUE : FALSE;          bool waitok = (flags & PR_WAITOK) ? true : false;
   
         return ((void *) uvm_km_alloc_poolpage_cache(kernel_map, waitok));          return ((void *) uvm_km_alloc_poolpage_cache(kernel_map, waitok));
 }  }

Legend:
Removed from v.1.122.4.2  
changed lines
  Added in v.1.132

CVSweb <webmaster@jp.NetBSD.org>