[BACK]Return to subr_pool.c CVS log [TXT][DIR] Up to [cvs.NetBSD.org] / src / sys / kern

Please note that diffs are not public domain; they are subject to the copyright notices on the relevant files.

Diff for /src/sys/kern/subr_pool.c between version 1.190.6.2 and 1.191

version 1.190.6.2, 2012/06/02 11:09:33 version 1.191, 2012/01/27 19:48:40
Line 35 
Line 35 
 __KERNEL_RCSID(0, "$NetBSD$");  __KERNEL_RCSID(0, "$NetBSD$");
   
 #include "opt_ddb.h"  #include "opt_ddb.h"
   #include "opt_pool.h"
   #include "opt_poollog.h"
 #include "opt_lockdebug.h"  #include "opt_lockdebug.h"
   
 #include <sys/param.h>  #include <sys/param.h>
Line 43  __KERNEL_RCSID(0, "$NetBSD$");
Line 45  __KERNEL_RCSID(0, "$NetBSD$");
 #include <sys/proc.h>  #include <sys/proc.h>
 #include <sys/errno.h>  #include <sys/errno.h>
 #include <sys/kernel.h>  #include <sys/kernel.h>
   #include <sys/malloc.h>
 #include <sys/vmem.h>  #include <sys/vmem.h>
 #include <sys/pool.h>  #include <sys/pool.h>
 #include <sys/syslog.h>  #include <sys/syslog.h>
Line 210  static void pool_print1(struct pool *, c
Line 213  static void pool_print1(struct pool *, c
 static int pool_chk_page(struct pool *, const char *,  static int pool_chk_page(struct pool *, const char *,
                          struct pool_item_header *);                           struct pool_item_header *);
   
   /*
    * Pool log entry. An array of these is allocated in pool_init().
    */
   struct pool_log {
           const char      *pl_file;
           long            pl_line;
           int             pl_action;
   #define PRLOG_GET       1
   #define PRLOG_PUT       2
           void            *pl_addr;
   };
   
   #ifdef POOL_DIAGNOSTIC
   /* Number of entries in pool log buffers */
   #ifndef POOL_LOGSIZE
   #define POOL_LOGSIZE    10
   #endif
   
   int pool_logsize = POOL_LOGSIZE;
   
   static inline void
   pr_log(struct pool *pp, void *v, int action, const char *file, long line)
   {
           int n;
           struct pool_log *pl;
   
           if ((pp->pr_roflags & PR_LOGGING) == 0)
                   return;
   
           if (pp->pr_log == NULL) {
                   if (kmem_map != NULL)
                           pp->pr_log = malloc(
                                   pool_logsize * sizeof(struct pool_log),
                                   M_TEMP, M_NOWAIT | M_ZERO);
                   if (pp->pr_log == NULL)
                           return;
                   pp->pr_curlogentry = 0;
                   pp->pr_logsize = pool_logsize;
           }
   
           /*
            * Fill in the current entry. Wrap around and overwrite
            * the oldest entry if necessary.
            */
           n = pp->pr_curlogentry;
           pl = &pp->pr_log[n];
           pl->pl_file = file;
           pl->pl_line = line;
           pl->pl_action = action;
           pl->pl_addr = v;
           if (++n >= pp->pr_logsize)
                   n = 0;
           pp->pr_curlogentry = n;
   }
   
   static void
   pr_printlog(struct pool *pp, struct pool_item *pi,
       void (*pr)(const char *, ...))
   {
           int i = pp->pr_logsize;
           int n = pp->pr_curlogentry;
   
           if (pp->pr_log == NULL)
                   return;
   
           /*
            * Print all entries in this pool's log.
            */
           while (i-- > 0) {
                   struct pool_log *pl = &pp->pr_log[n];
                   if (pl->pl_action != 0) {
                           if (pi == NULL || pi == pl->pl_addr) {
                                   (*pr)("\tlog entry %d:\n", i);
                                   (*pr)("\t\taction = %s, addr = %p\n",
                                       pl->pl_action == PRLOG_GET ? "get" : "put",
                                       pl->pl_addr);
                                   (*pr)("\t\tfile: %s at line %lu\n",
                                       pl->pl_file, pl->pl_line);
                           }
                   }
                   if (++n >= pp->pr_logsize)
                           n = 0;
           }
   }
   
   static inline void
   pr_enter(struct pool *pp, const char *file, long line)
   {
   
           if (__predict_false(pp->pr_entered_file != NULL)) {
                   printf("pool %s: reentrancy at file %s line %ld\n",
                       pp->pr_wchan, file, line);
                   printf("         previous entry at file %s line %ld\n",
                       pp->pr_entered_file, pp->pr_entered_line);
                   panic("pr_enter");
           }
   
           pp->pr_entered_file = file;
           pp->pr_entered_line = line;
   }
   
   static inline void
   pr_leave(struct pool *pp)
   {
   
           if (__predict_false(pp->pr_entered_file == NULL)) {
                   printf("pool %s not entered?\n", pp->pr_wchan);
                   panic("pr_leave");
           }
   
           pp->pr_entered_file = NULL;
           pp->pr_entered_line = 0;
   }
   
   static inline void
   pr_enter_check(struct pool *pp, void (*pr)(const char *, ...))
   {
   
           if (pp->pr_entered_file != NULL)
                   (*pr)("\n\tcurrently entered from file %s line %ld\n",
                       pp->pr_entered_file, pp->pr_entered_line);
   }
   #else
   #define pr_log(pp, v, action, file, line)
   #define pr_printlog(pp, pi, pr)
   #define pr_enter(pp, file, line)
   #define pr_leave(pp)
   #define pr_enter_check(pp, pr)
   #endif /* POOL_DIAGNOSTIC */
   
 static inline unsigned int  static inline unsigned int
 pr_item_notouch_index(const struct pool *pp, const struct pool_item_header *ph,  pr_item_notouch_index(const struct pool *pp, const struct pool_item_header *ph,
     const void *v)      const void *v)
Line 398  pr_rmpage(struct pool *pp, struct pool_i
Line 531  pr_rmpage(struct pool *pp, struct pool_i
 void  void
 pool_subsystem_init(void)  pool_subsystem_init(void)
 {  {
         size_t size;  
         int idx;          int idx;
           size_t size;
   
         mutex_init(&pool_head_lock, MUTEX_DEFAULT, IPL_NONE);          mutex_init(&pool_head_lock, MUTEX_DEFAULT, IPL_NONE);
         mutex_init(&pool_allocator_lock, MUTEX_DEFAULT, IPL_NONE);          mutex_init(&pool_allocator_lock, MUTEX_DEFAULT, IPL_NONE);
Line 451  pool_subsystem_init(void)
Line 584  pool_subsystem_init(void)
  * Initialize the given pool resource structure.   * Initialize the given pool resource structure.
  *   *
  * We export this routine to allow other kernel parts to declare   * We export this routine to allow other kernel parts to declare
  * static pools that must be initialized before kmem(9) is available.   * static pools that must be initialized before malloc() is available.
  */   */
 void  void
 pool_init(struct pool *pp, size_t size, u_int align, u_int ioff, int flags,  pool_init(struct pool *pp, size_t size, u_int align, u_int ioff, int flags,
Line 473  pool_init(struct pool *pp, size_t size, 
Line 606  pool_init(struct pool *pp, size_t size, 
         }          }
 #endif  #endif
   
   #ifdef POOL_DIAGNOSTIC
           /*
            * Always log if POOL_DIAGNOSTIC is defined.
            */
           if (pool_logsize != 0)
                   flags |= PR_LOGGING;
   #endif
   
         if (palloc == NULL)          if (palloc == NULL)
                 palloc = &pool_allocator_kmem;                  palloc = &pool_allocator_kmem;
 #ifdef POOL_SUBPAGE  #ifdef POOL_SUBPAGE
Line 619  pool_init(struct pool *pp, size_t size, 
Line 760  pool_init(struct pool *pp, size_t size, 
         pp->pr_nidle = 0;          pp->pr_nidle = 0;
         pp->pr_refcnt = 0;          pp->pr_refcnt = 0;
   
           pp->pr_log = NULL;
   
           pp->pr_entered_file = NULL;
           pp->pr_entered_line = 0;
   
         mutex_init(&pp->pr_lock, MUTEX_DEFAULT, ipl);          mutex_init(&pp->pr_lock, MUTEX_DEFAULT, ipl);
         cv_init(&pp->pr_cv, wchan);          cv_init(&pp->pr_cv, wchan);
         pp->pr_ipl = ipl;          pp->pr_ipl = ipl;
Line 679  pool_destroy(struct pool *pp)
Line 825  pool_destroy(struct pool *pp)
   
 #ifdef DIAGNOSTIC  #ifdef DIAGNOSTIC
         if (pp->pr_nout != 0) {          if (pp->pr_nout != 0) {
                   pr_printlog(pp, NULL, printf);
                 panic("pool_destroy: pool busy: still out: %u",                  panic("pool_destroy: pool busy: still out: %u",
                     pp->pr_nout);                      pp->pr_nout);
         }          }
Line 695  pool_destroy(struct pool *pp)
Line 842  pool_destroy(struct pool *pp)
         mutex_exit(&pp->pr_lock);          mutex_exit(&pp->pr_lock);
   
         pr_pagelist_free(pp, &pq);          pr_pagelist_free(pp, &pq);
   
   #ifdef POOL_DIAGNOSTIC
           if (pp->pr_log != NULL) {
                   free(pp->pr_log, M_TEMP);
                   pp->pr_log = NULL;
           }
   #endif
   
         cv_destroy(&pp->pr_cv);          cv_destroy(&pp->pr_cv);
         mutex_destroy(&pp->pr_lock);          mutex_destroy(&pp->pr_lock);
 }  }
Line 729  pool_alloc_item_header(struct pool *pp, 
Line 884  pool_alloc_item_header(struct pool *pp, 
  * Grab an item from the pool.   * Grab an item from the pool.
  */   */
 void *  void *
   #ifdef POOL_DIAGNOSTIC
   _pool_get(struct pool *pp, int flags, const char *file, long line)
   #else
 pool_get(struct pool *pp, int flags)  pool_get(struct pool *pp, int flags)
   #endif
 {  {
         struct pool_item *pi;          struct pool_item *pi;
         struct pool_item_header *ph;          struct pool_item_header *ph;
Line 749  pool_get(struct pool *pp, int flags)
Line 908  pool_get(struct pool *pp, int flags)
         }          }
   
         mutex_enter(&pp->pr_lock);          mutex_enter(&pp->pr_lock);
           pr_enter(pp, file, line);
   
  startover:   startover:
         /*          /*
          * Check to see if we've reached the hard limit.  If we have,           * Check to see if we've reached the hard limit.  If we have,
Line 757  pool_get(struct pool *pp, int flags)
Line 918  pool_get(struct pool *pp, int flags)
          */           */
 #ifdef DIAGNOSTIC  #ifdef DIAGNOSTIC
         if (__predict_false(pp->pr_nout > pp->pr_hardlimit)) {          if (__predict_false(pp->pr_nout > pp->pr_hardlimit)) {
                   pr_leave(pp);
                 mutex_exit(&pp->pr_lock);                  mutex_exit(&pp->pr_lock);
                 panic("pool_get: %s: crossed hard limit", pp->pr_wchan);                  panic("pool_get: %s: crossed hard limit", pp->pr_wchan);
         }          }
Line 768  pool_get(struct pool *pp, int flags)
Line 930  pool_get(struct pool *pp, int flags)
                          * back to the pool, unlock, call the hook, re-lock,                           * back to the pool, unlock, call the hook, re-lock,
                          * and check the hardlimit condition again.                           * and check the hardlimit condition again.
                          */                           */
                           pr_leave(pp);
                         mutex_exit(&pp->pr_lock);                          mutex_exit(&pp->pr_lock);
                         (*pp->pr_drain_hook)(pp->pr_drain_hook_arg, flags);                          (*pp->pr_drain_hook)(pp->pr_drain_hook_arg, flags);
                         mutex_enter(&pp->pr_lock);                          mutex_enter(&pp->pr_lock);
                           pr_enter(pp, file, line);
                         if (pp->pr_nout < pp->pr_hardlimit)                          if (pp->pr_nout < pp->pr_hardlimit)
                                 goto startover;                                  goto startover;
                 }                  }
Line 781  pool_get(struct pool *pp, int flags)
Line 945  pool_get(struct pool *pp, int flags)
                          * it be?                           * it be?
                          */                           */
                         pp->pr_flags |= PR_WANTED;                          pp->pr_flags |= PR_WANTED;
                           pr_leave(pp);
                         cv_wait(&pp->pr_cv, &pp->pr_lock);                          cv_wait(&pp->pr_cv, &pp->pr_lock);
                           pr_enter(pp, file, line);
                         goto startover;                          goto startover;
                 }                  }
   
Line 795  pool_get(struct pool *pp, int flags)
Line 961  pool_get(struct pool *pp, int flags)
   
                 pp->pr_nfail++;                  pp->pr_nfail++;
   
                   pr_leave(pp);
                 mutex_exit(&pp->pr_lock);                  mutex_exit(&pp->pr_lock);
                 return (NULL);                  return (NULL);
         }          }
Line 822  pool_get(struct pool *pp, int flags)
Line 989  pool_get(struct pool *pp, int flags)
                  * Release the pool lock, as the back-end page allocator                   * Release the pool lock, as the back-end page allocator
                  * may block.                   * may block.
                  */                   */
                   pr_leave(pp);
                 error = pool_grow(pp, flags);                  error = pool_grow(pp, flags);
                   pr_enter(pp, file, line);
                 if (error != 0) {                  if (error != 0) {
                         /*                          /*
                          * We were unable to allocate a page or item                           * We were unable to allocate a page or item
Line 834  pool_get(struct pool *pp, int flags)
Line 1003  pool_get(struct pool *pp, int flags)
                                 goto startover;                                  goto startover;
   
                         pp->pr_nfail++;                          pp->pr_nfail++;
                           pr_leave(pp);
                         mutex_exit(&pp->pr_lock);                          mutex_exit(&pp->pr_lock);
                         return (NULL);                          return (NULL);
                 }                  }
Line 844  pool_get(struct pool *pp, int flags)
Line 1014  pool_get(struct pool *pp, int flags)
         if (pp->pr_roflags & PR_NOTOUCH) {          if (pp->pr_roflags & PR_NOTOUCH) {
 #ifdef DIAGNOSTIC  #ifdef DIAGNOSTIC
                 if (__predict_false(ph->ph_nmissing == pp->pr_itemsperpage)) {                  if (__predict_false(ph->ph_nmissing == pp->pr_itemsperpage)) {
                           pr_leave(pp);
                         mutex_exit(&pp->pr_lock);                          mutex_exit(&pp->pr_lock);
                         panic("pool_get: %s: page empty", pp->pr_wchan);                          panic("pool_get: %s: page empty", pp->pr_wchan);
                 }                  }
 #endif  #endif
                 v = pr_item_notouch_get(pp, ph);                  v = pr_item_notouch_get(pp, ph);
   #ifdef POOL_DIAGNOSTIC
                   pr_log(pp, v, PRLOG_GET, file, line);
   #endif
         } else {          } else {
                 v = pi = LIST_FIRST(&ph->ph_itemlist);                  v = pi = LIST_FIRST(&ph->ph_itemlist);
                 if (__predict_false(v == NULL)) {                  if (__predict_false(v == NULL)) {
                           pr_leave(pp);
                         mutex_exit(&pp->pr_lock);                          mutex_exit(&pp->pr_lock);
                         panic("pool_get: %s: page empty", pp->pr_wchan);                          panic("pool_get: %s: page empty", pp->pr_wchan);
                 }                  }
 #ifdef DIAGNOSTIC  #ifdef DIAGNOSTIC
                 if (__predict_false(pp->pr_nitems == 0)) {                  if (__predict_false(pp->pr_nitems == 0)) {
                           pr_leave(pp);
                         mutex_exit(&pp->pr_lock);                          mutex_exit(&pp->pr_lock);
                         printf("pool_get: %s: items on itemlist, nitems %u\n",                          printf("pool_get: %s: items on itemlist, nitems %u\n",
                             pp->pr_wchan, pp->pr_nitems);                              pp->pr_wchan, pp->pr_nitems);
Line 864  pool_get(struct pool *pp, int flags)
Line 1040  pool_get(struct pool *pp, int flags)
                 }                  }
 #endif  #endif
   
   #ifdef POOL_DIAGNOSTIC
                   pr_log(pp, v, PRLOG_GET, file, line);
   #endif
   
 #ifdef DIAGNOSTIC  #ifdef DIAGNOSTIC
                 if (__predict_false(pi->pi_magic != PI_MAGIC)) {                  if (__predict_false(pi->pi_magic != PI_MAGIC)) {
                           pr_printlog(pp, pi, printf);
                         panic("pool_get(%s): free list modified: "                          panic("pool_get(%s): free list modified: "
                             "magic=%x; page %p; item addr %p\n",                              "magic=%x; page %p; item addr %p\n",
                             pp->pr_wchan, pi->pi_magic, ph->ph_page, pi);                              pp->pr_wchan, pi->pi_magic, ph->ph_page, pi);
Line 898  pool_get(struct pool *pp, int flags)
Line 1079  pool_get(struct pool *pp, int flags)
 #ifdef DIAGNOSTIC  #ifdef DIAGNOSTIC
                 if (__predict_false((pp->pr_roflags & PR_NOTOUCH) == 0 &&                  if (__predict_false((pp->pr_roflags & PR_NOTOUCH) == 0 &&
                     !LIST_EMPTY(&ph->ph_itemlist))) {                      !LIST_EMPTY(&ph->ph_itemlist))) {
                           pr_leave(pp);
                         mutex_exit(&pp->pr_lock);                          mutex_exit(&pp->pr_lock);
                         panic("pool_get: %s: nmissing inconsistent",                          panic("pool_get: %s: nmissing inconsistent",
                             pp->pr_wchan);                              pp->pr_wchan);
Line 913  pool_get(struct pool *pp, int flags)
Line 1095  pool_get(struct pool *pp, int flags)
         }          }
   
         pp->pr_nget++;          pp->pr_nget++;
           pr_leave(pp);
   
         /*          /*
          * If we have a low water mark and we are now below that low           * If we have a low water mark and we are now below that low
Line 954  pool_do_put(struct pool *pp, void *v, st
Line 1137  pool_do_put(struct pool *pp, void *v, st
 #endif  #endif
   
         if (__predict_false((ph = pr_find_pagehead(pp, v)) == NULL)) {          if (__predict_false((ph = pr_find_pagehead(pp, v)) == NULL)) {
                   pr_printlog(pp, NULL, printf);
                 panic("pool_put: %s: page header missing", pp->pr_wchan);                  panic("pool_put: %s: page header missing", pp->pr_wchan);
         }          }
   
Line 1042  pool_do_put(struct pool *pp, void *v, st
Line 1226  pool_do_put(struct pool *pp, void *v, st
         }          }
 }  }
   
   /*
    * Return resource to the pool.
    */
   #ifdef POOL_DIAGNOSTIC
   void
   _pool_put(struct pool *pp, void *v, const char *file, long line)
   {
           struct pool_pagelist pq;
   
           LIST_INIT(&pq);
   
           mutex_enter(&pp->pr_lock);
           pr_enter(pp, file, line);
   
           pr_log(pp, v, PRLOG_PUT, file, line);
   
           pool_do_put(pp, v, &pq);
   
           pr_leave(pp);
           mutex_exit(&pp->pr_lock);
   
           pr_pagelist_free(pp, &pq);
   }
   #undef pool_put
   #endif /* POOL_DIAGNOSTIC */
   
 void  void
 pool_put(struct pool *pp, void *v)  pool_put(struct pool *pp, void *v)
 {  {
Line 1056  pool_put(struct pool *pp, void *v)
Line 1266  pool_put(struct pool *pp, void *v)
         pr_pagelist_free(pp, &pq);          pr_pagelist_free(pp, &pq);
 }  }
   
   #ifdef POOL_DIAGNOSTIC
   #define         pool_put(h, v)  _pool_put((h), (v), __FILE__, __LINE__)
   #endif
   
 /*  /*
  * pool_grow: grow a pool by a page.   * pool_grow: grow a pool by a page.
  *   *
Line 1303  pool_sethardlimit(struct pool *pp, int n
Line 1517  pool_sethardlimit(struct pool *pp, int n
  * Might be called from interrupt context.   * Might be called from interrupt context.
  */   */
 int  int
   #ifdef POOL_DIAGNOSTIC
   _pool_reclaim(struct pool *pp, const char *file, long line)
   #else
 pool_reclaim(struct pool *pp)  pool_reclaim(struct pool *pp)
   #endif
 {  {
         struct pool_item_header *ph, *phnext;          struct pool_item_header *ph, *phnext;
         struct pool_pagelist pq;          struct pool_pagelist pq;
Line 1343  pool_reclaim(struct pool *pp)
Line 1561  pool_reclaim(struct pool *pp)
                 }                  }
                 return (0);                  return (0);
         }          }
           pr_enter(pp, file, line);
   
         LIST_INIT(&pq);          LIST_INIT(&pq);
   
Line 1370  pool_reclaim(struct pool *pp)
Line 1589  pool_reclaim(struct pool *pp)
                 pr_rmpage(pp, ph, &pq);                  pr_rmpage(pp, ph, &pq);
         }          }
   
           pr_leave(pp);
         mutex_exit(&pp->pr_lock);          mutex_exit(&pp->pr_lock);
   
         if (LIST_EMPTY(&pq))          if (LIST_EMPTY(&pq))
Line 1459  pool_drain_end(struct pool *pp, uint64_t
Line 1679  pool_drain_end(struct pool *pp, uint64_t
 /*  /*
  * Diagnostic helpers.   * Diagnostic helpers.
  */   */
   void
   pool_print(struct pool *pp, const char *modif)
   {
   
           pool_print1(pp, modif, printf);
   }
   
 void  void
 pool_printall(const char *modif, void (*pr)(const char *, ...))  pool_printall(const char *modif, void (*pr)(const char *, ...))
Line 1570  pool_print1(struct pool *pp, const char 
Line 1796  pool_print1(struct pool *pp, const char 
                 goto skip_log;                  goto skip_log;
   
         (*pr)("\n");          (*pr)("\n");
           if ((pp->pr_roflags & PR_LOGGING) == 0)
                   (*pr)("\tno log\n");
           else {
                   pr_printlog(pp, NULL, pr);
           }
   
  skip_log:   skip_log:
   
Line 1619  pool_print1(struct pool *pp, const char 
Line 1850  pool_print1(struct pool *pp, const char 
                 }                  }
         }          }
 #undef PR_GROUPLIST  #undef PR_GROUPLIST
   
           pr_enter_check(pp, pr);
 }  }
   
 static int  static int
Line 2063  pool_cache_invalidate(pool_cache_t pc)
Line 2296  pool_cache_invalidate(pool_cache_t pc)
 static void  static void
 pool_cache_invalidate_cpu(pool_cache_t pc, u_int index)  pool_cache_invalidate_cpu(pool_cache_t pc, u_int index)
 {  {
   
         pool_cache_cpu_t *cc;          pool_cache_cpu_t *cc;
         pcg_t *pcg;          pcg_t *pcg;
   
Line 2484  void pool_page_free(struct pool *, void 
Line 2718  void pool_page_free(struct pool *, void 
   
 #ifdef POOL_SUBPAGE  #ifdef POOL_SUBPAGE
 struct pool_allocator pool_allocator_kmem_fullpage = {  struct pool_allocator pool_allocator_kmem_fullpage = {
         .pa_alloc = pool_page_alloc,          pool_page_alloc, pool_page_free, 0
         .pa_free = pool_page_free,  
         .pa_pagesz = 0  
 };  };
 #else  #else
 struct pool_allocator pool_allocator_kmem = {  struct pool_allocator pool_allocator_kmem = {
Line 2496  struct pool_allocator pool_allocator_kme
Line 2728  struct pool_allocator pool_allocator_kme
 };  };
 #endif  #endif
   
   void    *pool_page_alloc_nointr(struct pool *, int);
   void    pool_page_free_nointr(struct pool *, void *);
   
 #ifdef POOL_SUBPAGE  #ifdef POOL_SUBPAGE
 struct pool_allocator pool_allocator_nointr_fullpage = {  struct pool_allocator pool_allocator_nointr_fullpage = {
         .pa_alloc = pool_page_alloc,          pool_page_alloc_nointr, pool_page_free_nointr, 0,
         .pa_free = pool_page_free,  
         .pa_pagesz = 0  
 };  };
 #else  #else
 struct pool_allocator pool_allocator_nointr = {  struct pool_allocator pool_allocator_nointr = {
Line 2515  void *pool_subpage_alloc(struct pool *, 
Line 2748  void *pool_subpage_alloc(struct pool *, 
 void    pool_subpage_free(struct pool *, void *);  void    pool_subpage_free(struct pool *, void *);
   
 struct pool_allocator pool_allocator_kmem = {  struct pool_allocator pool_allocator_kmem = {
         .pa_alloc = pool_subpage_alloc,          pool_subpage_alloc, pool_subpage_free, POOL_SUBPAGE,
         .pa_free = pool_subpage_free,  
         .pa_pagesz = POOL_SUBPAGE  
 };  };
   
   void    *pool_subpage_alloc_nointr(struct pool *, int);
   void    pool_subpage_free_nointr(struct pool *, void *);
   
 struct pool_allocator pool_allocator_nointr = {  struct pool_allocator pool_allocator_nointr = {
         .pa_alloc = pool_subpage_alloc,          pool_subpage_alloc, pool_subpage_free, POOL_SUBPAGE,
         .pa_free = pool_subpage_free,  
         .pa_pagesz = POOL_SUBPAGE  
 };  };
 #endif /* POOL_SUBPAGE */  #endif /* POOL_SUBPAGE */
   
Line 2559  pool_allocator_free(struct pool *pp, voi
Line 2791  pool_allocator_free(struct pool *pp, voi
 void *  void *
 pool_page_alloc(struct pool *pp, int flags)  pool_page_alloc(struct pool *pp, int flags)
 {  {
         const vm_flag_t vflags = (flags & PR_WAITOK) ? VM_SLEEP: VM_NOSLEEP;          bool waitok = (flags & PR_WAITOK) ? true : false;
           int rc;
         vmem_addr_t va;          vmem_addr_t va;
         int ret;  
   
         ret = uvm_km_kmem_alloc(kmem_va_arena, pp->pr_alloc->pa_pagesz,          rc = uvm_km_kmem_alloc(kmem_va_arena,
             vflags | VM_INSTANTFIT, &va);              pp->pr_alloc->pa_pagesz,
               ((waitok ? VM_SLEEP : VM_NOSLEEP) | VM_INSTANTFIT), &va);
   
         return ret ? NULL : (void *)va;          if (rc != 0)
                   return NULL;
           else
                   return (void *)va;
 }  }
   
 void  void
Line 2579  pool_page_free(struct pool *pp, void *v)
Line 2815  pool_page_free(struct pool *pp, void *v)
 static void *  static void *
 pool_page_alloc_meta(struct pool *pp, int flags)  pool_page_alloc_meta(struct pool *pp, int flags)
 {  {
         const vm_flag_t vflags = (flags & PR_WAITOK) ? VM_SLEEP: VM_NOSLEEP;          bool waitok = (flags & PR_WAITOK) ? true : false;
         vmem_addr_t va;          int rc;
         int ret;          vmem_addr_t addr;
   
         ret = vmem_alloc(kmem_meta_arena, pp->pr_alloc->pa_pagesz,          rc = vmem_alloc(kmem_meta_arena, pp->pr_alloc->pa_pagesz,
             vflags | VM_INSTANTFIT, &va);              (waitok ? VM_SLEEP : VM_NOSLEEP) | VM_INSTANTFIT, &addr);
   
         return ret ? NULL : (void *)va;          if (rc != 0)
                   return 0;
           else
                   return (void *)addr;
 }  }
   
 static void  static void
 pool_page_free_meta(struct pool *pp, void *v)  pool_page_free_meta(struct pool *pp, void *v)
 {  {
   
         vmem_free(kmem_meta_arena, (vmem_addr_t)v, pp->pr_alloc->pa_pagesz);          vmem_free(kmem_meta_arena, (vmem_addr_t)v,
               pp->pr_alloc->pa_pagesz);
 }  }
   
 #ifdef POOL_SUBPAGE  #ifdef POOL_SUBPAGE
Line 2610  pool_subpage_free(struct pool *pp, void 
Line 2850  pool_subpage_free(struct pool *pp, void 
         pool_put(&psppool, v);          pool_put(&psppool, v);
 }  }
   
   /* We don't provide a real nointr allocator.  Maybe later. */
   void *
   pool_subpage_alloc_nointr(struct pool *pp, int flags)
   {
   
           return (pool_subpage_alloc(pp, flags));
   }
   
   void
   pool_subpage_free_nointr(struct pool *pp, void *v)
   {
   
           pool_subpage_free(pp, v);
   }
 #endif /* POOL_SUBPAGE */  #endif /* POOL_SUBPAGE */
   
 #if defined(DDB)  #if defined(DDB)

Legend:
Removed from v.1.190.6.2  
changed lines
  Added in v.1.191

CVSweb <webmaster@jp.NetBSD.org>